apache添加网站,杭州seo技术,哈尔滨网站建设公司那家好,南阳seo网站推广费用零代码本地搭建AI应用 #x1f4da; 借助开源的#xff0c;大模型应用不再遥不可及 #x1f680; 当提到“大模型”和“本地部署”#xff0c;很多人可能第一反应是#xff1a;“这是不是只有那些顶尖的技术大牛才能搞定#xff1f;”
其实#xff0c;随着开源工具的发…零代码本地搭建AI应用 借助开源的大模型应用不再遥不可及 当提到“大模型”和“本地部署”很多人可能第一反应是“这是不是只有那些顶尖的技术大牛才能搞定”
其实随着开源工具的发展构建自己的大模型和知识库已经变得轻而易举就像请一个聪明的私人助理帮你处理日常任务一样简单。
Ollama 和 MaxKB 就是这样一对黄金搭档借助它们你不需要深厚的技术背景也能在本地搭建一个强大的 AI 系统。接下来我们将带你一步步实现这个目标让复杂的技术变得像拼积木一样简单。 Ollama 和 MaxKB AI应用初体验 从日常的简单问答到复杂的知识调取我们先来看看实际的效果。 主页面包括应用、知识库、函数库、管理 应用对话界面 知识库
后端智能“助理” Ollama部署
Ollama 是一款开源的本地大模型应用工具想象它就是一个超聪明的私人助理随时待命为你解答问题。更重要的是部署它并不像想象中那么复杂只需几个步骤你就可以让它在自己的设备上运行数据完全掌控在自己手里。
下载安装 Ollama为助理准备工作空间
要让助理为你工作首先需要为 TA 准备一个“办公室”。这里的办公室就是 Ollama 的安装环境。我们会向你详细展示如何下载、安装和配置 Ollama整个过程比你想象的要简单得多。
在线安装
如果你的网络条件允许直接使用脚本安装
curl -fsSL https://ollama.com/install.sh | sh 离线安装 安装命令 curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz sudo tar -C /usr -xzf ollama-linux-amd64.tgz -C 后面的路径是安装目录该路径根据自己的环境指定需要注意目录权限问题确保安装目录有权限。 如果没有curl命令可以直接使用浏览器访问https://ollama.com/download/ollama-linux-amd64.tgz即可将模型下载到本地。如果不能访问下载地址则需要先解决网络问题。 可以使用命令ollama -v验证是否成功安装了ollama。 安装成功会返回版本号我的版本是 ollama version is 0.3.13 启动 Ollama ollama serve 安装成后后直接使用上面的命令启动服务。 启动服务后此时还未结束需要安装大语言模型本文章使用llama3 安装启动大语言模型并开启对话框 ollama run llama3:8b执行该命令后会去下载llama3的模型2G左右 下载模型默认走的是官网下载有时候你的网络环境连不上官网如果你通过代理可以链接官网则先停止ollama的服务。配置临时的代理(不需要账号的去掉即可)然后重新启动 export HTTP_PROXYhttp://username:passwordproxy.example.com:8080 export HTTPS_PROXYhttp://username:passwordproxy.example.com:8080 ollama serve 本地知识库MaxKB部署
有了聪明的助理当然还要有一个系统化的知识存储和管理工具这就是 MaxKB 的作用。它就像一个巨大的、智能化的文件柜帮助你把所有知识条理清晰地归档并且随时供助理调取。
在你的本地环境中安装 MaxKB 是创建这个超强“文件柜”的第一步。我们将逐步介绍如何通过命令行进行安装与配置。
docker安装 拉取镜像并执行官方的命令 docker run -d --namemaxkb --restartalways -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud.com/1panel/maxkb 是可以启动的但是连接不上我们的后端大模型llama3需要修改命令绑定主机网络并且去掉端口映射。 docker run -d --nethost --namemaxkb --restartalways -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud.com/1panel/maxkb 启动后使用浏览器访问localhost:8080即可看到登录页面输入默认的账号密码即可进入主页面。 用户名: admin 密码: MaxKB123… 此时你就可以看到主页面了和下面的区别是第一次进入是没有应用的。
docker配置代理
我们有时候会遇到网络的环境无法访问docker的官方仓储但是我们可以使用代理访问。这种情况下我们直接使用docker下载并启动MaxKB是无法成功的此时我们需要让docker走我们的代理去docker的官方仓储下载镜像。
要在内网环境下通过代理访问 Docker并使用 docker pull 下载容器镜像你可以通过配置 Docker 的代理设置来实现。以下是详细的步骤
步骤 1获取代理信息
确保你已经有了代理的地址和端口通常是类似于以下格式 HTTP 代理http://proxy.example.com:8080 HTTPS 代理https://proxy.example.com:8080
如果代理需要认证你也需要用户名和密码
http://username:passwordproxy.example.com:8080
步骤 2配置 Docker 代理
你需要为 Docker 守护进程配置代理环境变量。Docker 使用 systemd 管理服务所以你需要修改其服务配置。 打开或创建 Docker 的服务目录 bash复制代码sudo mkdir -p /etc/systemd/system/docker.service.d 在该目录下创建一个名为 http-proxy.conf 的文件 bash复制代码sudo nano /etc/systemd/system/docker.service.d/http-proxy.conf 在文件中添加以下内容根据你的代理类型HTTP 或 HTTPS填写相关的代理地址。如果你有 HTTP 和 HTTPS 代理两个都可以配置有些 [Service] EnvironmentHTTP_PROXYhttp://proxy.example.com:8080 EnvironmentHTTPS_PROXYhttps://proxy.example.com:8080 EnvironmentNO_PROXYlocalhost,127.0.0.1 如果代理需要认证请将地址格式改为带有用户名和密码的形式 bash复制代码EnvironmentHTTP_PROXYhttp://username:passwordproxy.example.com:8080 EnvironmentHTTPS_PROXYhttps://username:passwordproxy.example.com:8080 保存并关闭文件。
步骤 3重新加载 Docker 守护进程
完成配置后你需要重新加载 systemd 配置并重启 Docker 服务。 重新加载 systemd 配置 bash复制代码sudo systemctl daemon-reload 重启 Docker 服务 bash复制代码sudo systemctl restart docker 知识管理信息按需归档
MaxKB 的强大之处在于它可以智能分类和整理各种信息。你只需要为它指引方向剩下的归档工作 MaxKB 会自动完成。 先创建需要使用的知识库流程皆有提示。 语料的整理 建议使用markdown格式做语料的文档 使用大模型优化语料可以将你的原始资料提供给大模型让大模型帮你优化输出语料
创建属于你的应用
当 Ollama 和 MaxKB 配合起来就像助理能够随时从文件柜中调取所需的资料。我们会引导你完成这两者的无缝整合让系统智能化运作。 创建你的应用 新增本地后端大模型。 绑定创建好的知识库 保存并发布你的应用你的知识库AI应用就已经搭建完成啦
如何学习大模型 AI
由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。
但是具体到个人只能说是
“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。
这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。
我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。 第一阶段10天初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。
大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…
第二阶段30天高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。
为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…
第三阶段30天模型训练
恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。
到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗
为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…
第四阶段20天商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。
硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…
学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。
如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】