当前位置: 首页 > news >正文

搭建发卡网站要多少钱wordpress黄页

搭建发卡网站要多少钱,wordpress黄页,金融网站建设方案ppt模板下载,电商平台引流推广文章目录 前言1. 运行Ollama2. 安装Open WebUI2.1 在Windows系统安装Docker2.2 使用Docker部署Open WebUI 3. 安装内网穿透工具4. 创建固定公网地址 前言 本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具#xff0c;并安装Open WebUI结合cpolar内网穿透软… 文章目录 前言1. 运行Ollama2. 安装Open WebUI2.1 在Windows系统安装Docker2.2 使用Docker部署Open WebUI 3. 安装内网穿透工具4. 创建固定公网地址 前言 本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具并安装Open WebUI结合cpolar内网穿透软件实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。 近些年来随着ChatGPT的兴起大语言模型 LLMLarge Language Model也成为了人工智能AI领域的热门话题很多大厂也都推出了自己的大语言模型并或多或少的开源了自己的大语言模型今天就来分享一个最近很火且对于小白来说比较好上手本地部署的运行本地LLM的工具Ollama。 在本地运行大语言模型有诸多优点 比如可以保护隐私、不会产生费用、可以无视网络问题、可以尝鲜各种开源模型等等。 Ollama支持当前主要的开源大模型 比如llama2、千文qwen、mistral等可以在Windows、Linux、MacOS系统上进行部署。稳定性和便利性都非常不错下面就来分享一下它在Windows系统上的安装与应用。 1. 运行Ollama 本文安装环境为Windows10专业版 下载 Ollama下载地址https://ollama.com/download 在下载页面点击Windows然后点击下载按钮。 安装 下载完成后双击下载的安装程序。 点击Install进行安装。 安装完成没有提示我们打开一个终端本文以Windows PowerShell为例大家也可以使用其他的 现在Ollama已经安装完了我们需要在终端中输入下方命令运行一个大语言模型进行测试这里以对在中文方面表现相对好些的千问为例大家也可以使用其他的模型。 ollama run qwen可以看到系统正在下载qwen的模型并保存在C盘C:\Usersusername.ollama\models 如果想更改默认路径可以通过设置OLLAMA_MODELS进行修改然后重启终端重启ollama服务。 setx OLLAMA_MODELS D:\ollama_model模型下载完成后我们就可以在终端中输入问题进行使用了 至此在Windows本地部署ollama并运行qwen大语言模型就已经完成了。一键搞定对新手体验大语言模型真的非常友好。 2. 安装Open WebUI 不过我们现在只能在终端中使用操作界面可能不像ChatGPT那样美观如果能使用web页面进行交互使用体验更好也能保留之前的聊天记录翻遍我们翻阅查询。 针对这个情况我们可以在Windows上部署Open WebUI这个项目来实现类似chatgpt一样的交互界面。 本教程以Open WebUI这个项目为例它以前的名字就叫 Formerly Ollama WebUI。可以理解为一开始就是专门适配Ollama的WebUI它的界面也对用惯了chatgpt的小伙伴来说更相似一些。当然大家也可以选择其他的WebUI之后有机会也可以分享给大家。 如何在Windows系统安装Open WebUI 2.1 在Windows系统安装Docker 首先如果大家之前未安装过Docker需要执行下面三个步骤进行安装 第一步启动Hyper-v 打开控制面板在程序与功能页面选择启用或Windows功能 勾选Hyper-V、虚拟机平台、Linux子系统并点击确认 然后重启计算机。 第二步安装WSL 打开 powershell以管理员的身份启动命令窗口输入 wsl --update安装 wsl --install然后再次重启电脑。 第三步访问Docker官网进行下载 点击下载链接https://docs.docker.com/desktop/install/windows-install/ 选择Windows最新版本 下载完成后双击安装程序进行安装如果是第一次安装安装后会提示重启电脑重启后点击桌面的Docker Desktop图标选择先不注册直接登录即可。 打开Docker Desktop后左下角显示是绿色的running就代表我们成功了 视频安装教程 【Docker教程】如何在Windows系统安装Docker 2.2 使用Docker部署Open WebUI 在Open WebUI的github页面 https://github.com/open-webui/open-webui 可以看到如果你的Ollama和Open WebUI在同一台主机那使用下面显示的这一行命令就可以在本地快速进行部署 docker run -d -p 3000:8080 --add-hosthost.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main现在我们打开终端比如powershell然后输入docker回车 可以看到这个命令成功运行说明docker安装成功。 然后将上边在docker中部署Open WebUI的命令复制后粘贴到终端中回车。 然后等待安装完毕即可如下图所示 安装完成后在Docker Desktop中可以看到Open WebUI的web界面地址为https://localhost:3000 点击后会在浏览器打开登录界面 点击sign up注册账号邮箱密码记好下次登录时需要用到邮箱和密码登录 然后点击create account创建账号即可然后就能在浏览器中使用类似chatgpt界面的Open WebUI了 点击右上角的设置可以修改当前界面的语言为简体中文然后点击保存即可。 点击上方选择一个模型旁边的加号可以增加大模型点击下拉按钮可以选择当前使用哪一个已安装的模型接下来就可以愉快的跟ai聊天了 3. 安装内网穿透工具 至此我们已经成功完成在本地Windows系统使用Docker部署Open WebUI与Ollama大模型工具进行交互了但如果想实现出门在外也能随时随地使用Ollama Open WebUI那就需要借助cpolar内网穿透工具来实现公网访问了接下来介绍一下如何安装cpolar内网穿透并实现公网访问 下面是安装cpolar步骤 cpolar官网地址: https://www.cpolar.com 点击进入cpolar官网点击免费使用注册一个账号并下载最新版本的cpolar 登录成功后点击下载cpolar到本地并安装一路默认安装即可本教程选择下载Windows版本。 cpolar安装成功后在浏览器上访问http://localhost:9200使用cpolar账号登录,登录后即可看到cpolar web 配置界面,结下来在web 管理界面配置即可。 接下来配置一下 Open WebUI 的公网地址 登录后点击左侧仪表盘的隧道管理——创建隧道 创建一个 ollama1 的公网http地址隧道 隧道名称ollama1可自定义命名注意不要与已有的隧道名称重复协议选择http本地地址3000 (本地访问的地址)域名类型免费选择随机域名地区选择China Top 隧道创建成功后点击左侧的状态——在线隧道列表,查看所生成的公网访问地址有两种访问方式,一种是http 和https 使用上面的任意一个公网地址,在手机或任意设备的浏览器进行登录访问,即可成功看到 Open WebUI 界面,这样一个公网地址且可以远程访问就创建好了,使用了cpolar的公网域名,无需自己购买云服务器,即可到公网访问 Open WebUI 了 小结 如果我们需要长期异地远程访问Open WebUI由于刚才创建的是随机的地址24小时会发生变化。另外它的网址是由随机字符生成不容易记忆。如果想把域名变成固定的二级子域名并且不想每次都重新创建隧道来访问Open WebUI我们可以选择创建一个固定的公网地址来解决这个问题。 4. 创建固定公网地址 我们接下来为其配置固定的HTTP端口地址该地址不会变化方便分享给别人长期查看你部署的项目而无需每天重复修改服务器地址。 配置固定http端口地址需要将cpolar升级到专业版套餐或以上。 登录cpolar官网点击左侧的预留选择保留二级子域名设置一个二级子域名名称点击保留,保留成功后复制保留的二级子域名名称 保留成功后复制保留成功的二级子域名的名称myollama大家也可以设置自己喜欢的名称。 返回登录Cpolar web UI管理界面点击左侧仪表盘的隧道管理——隧道列表找到所要配置的隧道ollama1点击右侧的编辑 修改隧道信息将保留成功的二级子域名配置到隧道中 域名类型选择二级子域名Sub Domain填写保留成功的二级子域名myollama 点击更新(注意,点击一次更新即可,不需要重复提交) 更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名 最后,我们使用固定的公网https地址访问,可以看到访问成功,这样一个固定且永久不变的公网地址就设置好了可以随时随地在公网环境异地访问本地部署的 Open WebUI 了 以上就是如何在Windows系统本地安装Ollama大模型工具并使用docker部署Open WebUI结合cpolar内网穿透工具实现公网访问本地LLM并配置固定不变的二级子域名公网地址实现远程访问的全部流程感谢您的观看有任何问题欢迎留言交流。
http://www.zqtcl.cn/news/570933/

相关文章:

  • 手机网站自动适配旅游网络营销方案
  • 敦化网站开发黔东南购物网站开发设计
  • 建设一个网站 需要提供什么如何免费推广自己的网站
  • 佛山企业网站制作公司中国互联网企业100强榜单
  • 买了域名就可以做网站怎么创造游戏软件
  • 广东广州电脑个人建站徐州网站排名公司
  • 网站优化 流量做网站对企业有什么好处
  • 建设机械网站制作人工智能工程师月薪多少
  • wordpress 百度站长沈阳app开发公司哪家好
  • 做网站平台公司网站建设硬件环境
  • 可视化编辑建站平台新密市城乡建设局网站
  • 电子商务的网站的建设内容wordpress主题 微软
  • 什么软件可以做动画视频网站网站的按钮怎么做 视频
  • 饰品做商城网站模式17网站一起做网店新塘
  • 微信做的地方门户网站做设计的平台
  • 旅游网站建设国内外现状安卓开发软件安装教程
  • 网站建设必备网站自助建设
  • 杭州免费自助建站模板辽宁建设工程信息网为什么打不开
  • sdcms网站源码百度怎么免费做网站
  • 图书馆网站参考咨询建设wordpress安装500
  • 详细描述建设网站wordpress 子页面
  • 做公司网站推广如何快速推广
  • 给期货交易类做网站违法吗青海企业网站制作
  • 成都网站模板购买一站式营销型网站建设服务
  • wordpress建站优势做网站认证对网站有什么好处
  • synology做网站专业企业建站价格
  • php开发大型网站开发免费个人微网站
  • 专门做奢侈品的网站怎么建设课题网站
  • 博客推广那个网站列好深圳社保个人网页登录
  • 网站的背景图怎么做最新章节 第一百四十七章 做视频网站