建设银行鞍山网站,河北网站优化建设,html5素材网,怎么建立网站站点原贴地址#xff1a;https://testerhome.com/topics/39091
前言
国内访问 chatgpt 太麻烦了#xff0c;还是本地自己搭一个比较快#xff0c;也方便后续修改微调啥的。
之前 llama 刚出来的时候在 mac 上试了下#xff0c;也在 windows 上用 conda 折腾过#xff0c;环…原贴地址https://testerhome.com/topics/39091
前言
国内访问 chatgpt 太麻烦了还是本地自己搭一个比较快也方便后续修改微调啥的。
之前 llama 刚出来的时候在 mac 上试了下也在 windows 上用 conda 折腾过环境配置步骤太多都没跑起来。最近网上看到有预编译的对环境要求降低了非常多所以早上试了下终于跑起来了。
使用平台
系统windows 10
硬件i5 12400F 32GB 内存 RTX 3090 显卡
具体步骤
主要参考 llama.cpp教程Windows系统上无需编译直接运行一个自己的LLaMA 2 - 怕刺 。基本上使用的都是已经预编译好的软件不用特别折腾环境配置。
因为用了 nvidia 的显卡而且 cpu 本身也不强所以主要配置为 gpu 加速为主
下载 cuda
直接到 CUDA Toolkit 12.3 Update 2 Downloads | NVIDIA Developer 下载对应自己系统的安装文件即可。
下载预编译 llama.cpp 软件
到 Releases · ggerganov/llama.cpp · GitHub 下载 cuda 12 版本。下载完毕后解压到一个文件夹里。我这里用的文件夹名字为 llama-bin-win-cuba-x64 下面也都用这个路径。
创建 prompt 文件
把 https://raw.githubusercontent.com/ggerganov/llama.cpp/master/prompts/chat-with-bob.txt 下载到 llama-bin-win-cuba-x64 根目录
下载量化模型
结合硬件配置我用的是 13b 的模型 llama-2-13b-chat.Q5_K_M 。大家可以参考 llama.cpp教程Windows系统上无需编译直接运行一个自己的LLaMA 2 - 怕刺 选择合适自己的。
这里要注意目前是无法直接访问 huggingface.co 网站的我用的是 hf-mirror.com - Huggingface 镜像站 镜像站点来解决。下载上面这个模型不需要 token 验证所以可以直接打开 llama-2-13b-chat.Q5_K_M.gguf · TheBloke/Llama-2-13B-chat-GGUF at main 点击 download 按钮直接下载
运行模型
在终端中打开 llama-bin-win-cuba-x64 目录运行如下命令模型 gguf 文件名记得替换成自己用的
.\main.exe -m .\llama-2-13b-chat.Q5_K_M.gguf -n -1 --repeat_penalty 1.0 --color -i -r User: -f .\chat-with-bob.txt --n-gpu-layers 1注意最后的 --n-gpu-layers 1 表示第一层让 gpu 计算剩下给 cpu。运行后会出现类似下面内容 其中 llm_load_tensors: offloaded 1/41 layers to GPU 说明一共有 41 层gpu 运行第 1 层。后续想全部给 gpu 运行把命令里的 --n-gpu-layers 1 改为 --n-gpu-layers 41 即可。
推荐大家可以尽量用 gpu 加速运行速度比 cpu 快不少。
运行效果 总结
初步在本地跑了起来完成了第一步。后面继续折腾把它变成 web 服务上层再做更多事情。
同时TesterHome社区学堂上架了 人工智能和测试的入门课程助力大家学习人工智能并实现工资提升。
人工智能测试入门与进阶 也可以访问edu.testerhome.com查看更多课程。