旅游网站建设目的,h5怎么制作进入下一页,张家口网站建设开发,如何自己做网页链接本地部署 Qwen-Audio-Chat Qwen-Audio-Chat 介绍Qwen-Audio Github 地址部署 Qwen-Audio-Chat安装 ffmpeg克隆代码库创建虚拟环境使用 pip 安装 pytorch使用 pip 安装依赖使用 ModelScope运行 Web UI Qwen-Audio-Chat 介绍
Qwen-Audio-Chat是通用语音多模态大规模语言模型因此它可以完成多种音频理解任务。在本教程之中我们会给出一些简明的例子用以展示Qwen-Audio-Chat在语音识别语音翻译环境音理解多音频理解和语音定位(根据指令截取语音中指定文本的片段)等多方面的能力。
Qwen-Audio Github 地址
https://github.com/QwenLM/Qwen-Audio
部署 Qwen-Audio-Chat
安装 ffmpeg
sudo apt install ffmpeg克隆代码库
git clone https://github.com/QwenLM/Qwen-Audio.git
cd Qwen-Audio创建虚拟环境
conda create -n qwenaudio python3.10 -y
conda activate qwenaudio使用 pip 安装 pytorch
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118验证 cuda 可用
python -c import torch;print(torch.cuda.is_available());使用 pip 安装依赖
pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/安装 flash-attn
git clone https://github.com/Dao-AILab/flash-attention; cd flash-attention
# 20231209 时点最新是 flash-attn-2.3.6 版本
pip install flash-attn --no-build-isolation
# 下方安装可选安装可能比较缓慢。
pip install csrc/layer_norm
pip install csrc/rotary使用 ModelScope
安装 modelscope
pip install modelscope -i https://mirrors.aliyun.com/pypi/simple/修改 web_demo_audio.py 使用 ModelScope
cp web_demo_audio.py webui.py vi webui.py --- add
from modelscope import (snapshot_download, AutoModelForCausalLM, AutoTokenizer, GenerationConfig
)
import torch
model_id qwen/Qwen-Audio-Chat
revision mastermodel_dir snapshot_download(model_id, revisionrevision)
torch.manual_seed(1234)
------ modify# tokenizer AutoTokenizer.from_pretrained(# args.checkpoint_path, trust_remote_codeTrue, resume_downloadTrue,# )tokenizer AutoTokenizer.from_pretrained(model_dir, trust_remote_codeTrue)if not hasattr(tokenizer, model_dir):tokenizer.model_dir model_dir
------ modify# model AutoModelForCausalLM.from_pretrained(# args.checkpoint_path,# device_mapdevice_map,# trust_remote_codeTrue,# resume_downloadTrue,# ).eval()# model.generation_config GenerationConfig.from_pretrained(# args.checkpoint_path, trust_remote_codeTrue, resume_downloadTrue,# )model AutoModelForCausalLM.from_pretrained(model_dir, device_mapauto, trust_remote_codeTrue).eval()
---运行 Web UI
pip install -r requirements_web_demo.txt -i https://mirrors.aliyun.com/pypi/simple/创建 webui.sh
eval $(conda shell.bash hook)
conda activate qwenaudio
CUDA_VISIBLE_DEVICES0
python webui.py --server-name 0.0.0.0 --server-port 8001随后运行如下命令并点击生成链接
./webui.sh完结