织梦小说网站模板下载,快速搭建网站视频教程,广东网站建设,平湖模板网站建设公司文章目录 前言1.安装Ollama2.QwQ-32B模型安装与运行3.Cursor安装与配置4. 简单使用测试5. 调用本地大模型6. 安装内网穿透7. 配置固定公网地址总结 前言
本方案提出了一种基于Windows系统的智能化开发平台搭建策略#xff0c;通过融合Cursor智能编程平台、Ollama模型运行框架… 文章目录 前言1.安装Ollama2.QwQ-32B模型安装与运行3.Cursor安装与配置4. 简单使用测试5. 调用本地大模型6. 安装内网穿透7. 配置固定公网地址总结 前言
本方案提出了一种基于Windows系统的智能化开发平台搭建策略通过融合Cursor智能编程平台、Ollama模型运行框架和cpolar内网穿透服务成功实现了千问QwQ-32B大模型的私有化远程调用。该系统架构包含三个核心组件首先利用Ollama框架实现QwQ-32B模型的本地化部署其次构建定制化的OPENAI API接口以规范模型服务输出最后借助内网穿透技术突破局域网限制创建可远程访问的服务端口。
在技术实现维度Cursor作为当前主流的AI辅助开发工具其设计特性存在两个明显局限其一是对公网模型服务的强依赖特性其二是高频次API调用带来的运营成本压力。本方案从两个层面进行优化第一实施本地化部署方案提升数据安全性确保所有代码解析与模型运算均在本地闭环完成第二采用内网穿透技术既规避了服务费用支出又实现了跨区域访问能力。
该解决方案具备三项显著应用价值1为开发者提供多场景工作环境适配通过远程连接实现本地模型访问2在团队协作中有效防控代码泄露风险3为资源受限的开发团队提供高性价比的AI服务选项。通过Ollama的轻量化部署能力、cpolar的穿透技术优势与Cursor的智能编辑功能的有机整合最终构建出具备安全性保障、成本控制优势和操作便利性的智能开发系统。
1.安装Ollama
本例中使用的是Windows11系统专业版通过Ollama运行Gemma3:27B大模型之前曾经发布过如何在Windows安装Ollama的教程有需要的同学可以看看这篇文章Windows本地部署Deepseek-R1大模型并使用Web界面远程交互
简单来说就是访问Ollama的官网Download Ollama on Windows 下载对应版本的ollama安装程序并安装 2.QwQ-32B模型安装与运行
在Ollama的官网点击Models搜索qwq就可以看到模型 Ollama安装完成之后就可以开始去下载 QwQ-32B 模型了使用这个命令就能下载
ollama run qwqps:需要预留20个G以上的储存空间默认下载到C盘如果想修改下载位置可以在终端中执行下方命令来指定模型文件的存放目录这里以d:\ollama为例大家可以自定义 set OLLAMA_MODELSd:\ollama下载中时间有点长等待进度条完成即可模型安装成功后会提示success并可以进行提问了 3.Cursor安装与配置
访问cursor官网下载Windows版本 https://www.cursor.com/ 我这里下载的是Windows X64的0.48版本 下载后按照提示一步步安装如需创建桌面快捷方式勾选即可 点击完成后第一次运行程序会弹出登录窗口 点击Sign UP注册一个账号登录 或者使用google或github账号登录都可以 选择一个主题点击继续 选择快捷键风格点击继续 数据分享这里选择了私人模式进行演示大家可以根据自己情况选择 给AI发送信息的语言选择简体中文 配置完毕后既可看到Cursor的主界面了 4. 简单使用测试
现在我们就可以在右侧的输入框中选择好AI模型进行提问了比如我这里要求他帮我写一个贪吃蛇小游戏 经过两次确认创建文件并等待一小会儿后AI就给我生成了两个文件index.html和game.js在将这两个文件保存在同一目录下在浏览器中打开index.html就能看到贪吃蛇小游戏的界面了 通过控制方向键也可以正常玩不过这只是一个相当初级的版本但是AI也提供了后续优化的建议比如 添加游戏重启按钮 调整游戏速度 添加不同的难度级别 添加音效 添加暂停功能 5. 调用本地大模型
在提问框旁边我们能看到使用哪个大模型来辅助你编程的选择功能 不过刚才演示的是通过调用在线大模型来输出回答现在我们来演示一下如何让Cursor调用我们刚才在本地部署的qwq-32b大模型来实现辅助开发。
要想实现这个功能首先我们需要打开Cursor的左边栏点击插件搜索cline插件并点击install进行下载 安装好之后点击插件图标选择使用我自己的api key 然后在API Provider中选择刚才安装的Ollama模型地址默认http://localhost:11434模型ID在勾选了要使用本地部署的qwq:latest后会自动填写然后点击Let”go 配置完成后点击cline插件下方的在编辑器中打开 在弹出的新输入框中可以看到现在已经调用的是本地部署的qwq-32b名称为qwq:latest模型了 提个要求测试一下 这次使用本地大模型生成的贪吃蛇小游戏不用自己创建文件夹了自己在桌面上生成了一个目录 访问后同样可以看到游戏界面并且这次还加上了重新开始按钮 但是同样也有一些BUG需要后期进行完善与优化。
6. 安装内网穿透
但如果想要像文章开头说的那样当和本地部署的大模型不在同一网络环境下也能随时随地在线使用Cursor调用与本地部署的大模型辅助代码开发那就需要借助cpolar内网穿透工具来实现公网访问了接下来介绍一下如何安装cpolar内网穿透过程同样非常简单只需使用它为Ollama配置一个公网地址就可以了。
首先进入cpolar官网
cpolar官网地址: https://www.cpolar.com
点击免费使用注册一个账号并下载最新版本的cpolar 登录成功后点击下载cpolar到本地并安装一路默认安装即可本教程选择下载Windows版本。 cpolar安装成功后在浏览器上访问http://localhost:9200使用cpolar账号登录,登录后即可看到配置界面,结下来在WebUI管理界面配置即可。 接下来配置一下 ollama 的公网地址
登录后点击左侧仪表盘的隧道管理——创建隧道
隧道名称cursor可自定义命名注意不要与已有的隧道名称重复协议选择 http本地地址11434域名类型选择随机域名地区选择China Top 隧道创建成功后点击左侧的状态——在线隧道列表,查看所生成的公网访问地址有两种访问方式,一种是http 和https 使用上面的任意一个公网地址替换刚才我们在Cursor中的cline插件里填写的模型地址即可这样一来就可以随时使用Cursor在线调用本地大模型来让AI辅助我们进行代码开发了 小结
为了方便演示我们在上边的操作过程中使用cpolar生成的HTTP公网地址隧道其公网地址是随机生成的。这种随机地址的优势在于建立速度快可以立即使用。然而它的缺点是网址是随机生成这个地址在24小时内会发生随机变化更适合于临时使用。
如果有长期远程使用Cursor调用本地模型辅助开发或者异地访问与使用其他本地部署的服务的需求但又不想每天重新配置公网地址还想让公网地址好看又好记并体验更多功能与更快的带宽那我推荐大家选择使用固定的二级子域名方式来配置一个公网地址。
7. 配置固定公网地址
接下来演示如何为其配置固定的HTTP公网地址该地址不会变化方便分享给别人长期查看你部署的项目而无需每天重复修改服务器地址。 配置固定http端口地址需要将cpolar升级到专业版套餐或以上。 登录cpolar官网点击左侧的预留选择保留二级子域名设置一个二级子域名名称点击保留: 保留成功后复制保留成功的二级子域名的名称mycursor大家也可以设置自己喜欢的名称。 返回Cpolar web UI管理界面点击左侧仪表盘的隧道管理——隧道列表找到所要配置的隧道cursor点击右侧的编辑 修改隧道信息将保留成功的二级子域名配置到隧道中
域名类型选择二级子域名Sub Domain填写保留成功的二级子域名mycursor
点击更新(注意,点击一次更新即可,不需要重复提交) 更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名 最后,我们使用上边任意一个固定的公网地址访问,可以看到访问成功,这样一个固定且永久不变的公网地址就设置好了可以随时随地在公网环境异地在线访问本地部署的大模型来使用Cursor辅助代码开发工作了 总结
本系统方案已在Windows系统环境中成功构建Cursor智能编程平台与QwQ-32B大模型的本地化部署架构通过cline插件构建了本地模型的调用机制。针对传统云端服务模式存在的运营成本高企与数据安全风险本方案创造性整合内网穿透技术成功破解了无公网IP场景下的远程访问瓶颈。实测数据显示该技术架构在维持开发效率的同时实现了服务成本的显著优化主要体现在1本地化处理机制杜绝了数据外传隐患2采用内网穿透技术替代传统云服务收费模式3模块化插件设计提升了模型响应速度。该解决方案为需要灵活部署环境的开发团队提供了兼顾安全防护、成本控制和系统扩展的可行性方案欢迎就技术细节进行深入交流。