济南市住房和城乡建设部网站,七牛云免费服务器,网站访问量js,创建一个网站流程图题外话
之前我们在讲大模型的应用方向和架构时#xff0c;有提到RAG、Agent、Fine-Tune。在作者写大模型专题的文章时#xff0c;也是边学习#xff0c;边梳理#xff0c;边总结。在这个过程中#xff0c;大模型在各个方向都不断地快速发展#xff0c;对应的paper、理论…题外话
之前我们在讲大模型的应用方向和架构时有提到RAG、Agent、Fine-Tune。在作者写大模型专题的文章时也是边学习边梳理边总结。在这个过程中大模型在各个方向都不断地快速发展对应的paper、理论、方向也是不断地涌现出来。
在理论不断发展实践不断丰富的过程中我们学习和使用RAG作者个人认为已经不能再单独孤立的去看了
1.RAG和Fine-Tune都是为了解决LLM的某些问题而出现我们需要去了解各自的优缺点和使用场景
2.RAG的核心知识以及应用、未来的发展趋势
3.混合增强策略RAG Fine-Tuning 前言
结合上述我们聊到的以及在学习和查阅资料的时候我发现好多文章都在写某一个方面我们进行梳理整合写一个大模型RAG的子系列方便大家集中阅读主要围绕以下展开
1.大模型应用RAG系列一之初识RAG为什么会出现RAG及未来发展趋势
2.大模型应用RAG系列二之RAG与Fine-Tune的区别应用场景
3.大模型应用RAG系列三之从0搭建一个RAG构建我们的垂域向量知识库
4.大模型应用RAG系列四之混合增强策略RAG Fine-Tuning
什么是RAG
所谓RAG检索增强生成Retrieval Augmented Generation简称 RAG已经成为当前最火热的LLM应用方案。
通俗点说;就是通过自有垂域数据库检索相关信息然后合并成为提示模板给大模型生成漂亮的回答。
为什么会出现RAG
RAG的出现是因为在大模型的广泛应用中伴随着出现的一些问题比如
知识的局限性模型自身的知识完全源于它的训练数据而现有的主流大模型ChatGPT、文心一言、通义千问…的训练集基本都是构建于网络公开的数据对于一些实时性的、非公开的或离线的数据是无法获取到的这部分知识也就无从具备。幻觉问题所有的AI模型的底层原理都是基于数学概率其模型输出实质上是一系列数值运算大模型也不例外所以它有时候会一本正经地胡说八道尤其是在大模型自身不具备某一方面的知识或不擅长的场景。而这种幻觉问题的区分是比较困难的因为它要求使用者自身具备相应领域的知识。数据安全性对于企业来说数据安全至关重要没有企业愿意承担数据泄露的风险将自身的私域数据上传第三方平台进行训练。这也导致完全依赖通用大模型自身能力的应用方案不得不在数据安全和效果方面进行取舍。
而RAG是解决上述问题的一套有效方案。
RAG 检索技术 LLM 提示。例如我们向 LLM 提问一个问题RAG 从各种数据源检索相关的信息并将检索到的信息和问题注入到 LLM 提示中LLM 最后给出答案。
许多产品基于 RAG 构建从基于 web 搜索引擎和 LLM 的问答服务到使用私有数据的chat应用程序。
举个例子
咱们以知识局限性为例众所周知GPT-4 Turbo的现实世界知识截止时间现在是2023年9月。补充一下经朋友提醒plus用户更新到了2024.4。
而小米SU72021年3月小米官宣造车2021年9月小米汽车公司正式注册2022年8月小米自动驾驶技术视频公布2023年12月28日小米汽车召开技术发布会 2024年3月28日小米集团召开XIAOMI SU7上市发布会 同年4月3日XIAOMI SU7正式交付。
然后我们将这个问题让GPT-4 Turbo来回答看看 RAG是如何解决问题的
我们从数据准备、数据检索、LLM生成三个维度来看一张架构图 这里简要的描述一下RAG的这个流程后面会再专门详细讲解。
完整的RAG应用流程主要包含两个阶段
数据准备阶段数据提取——文本分割——向量化embedding——数据入库应用阶段用户提问——数据检索召回——注入Prompt——LLM生成答案
RAG的优点
1.外部知识的利用RAG 模型可以有效地利用外部知识库它可以引用大量的信息以提供更深入、准确且有价值的答案这提高了生成文本的可靠性。
2.数据更新及时性RAG 模型具备检索库的更新机制可以实现知识的即时更新无需重新训练模型。说明 RAG 模型可以提供与最新信息相关的回答高度适配要求及时性的应用。
3.回复具有解释性由于 RAG 模型的答案直接来自检索库它的回复具有很强的可解释性减少大模型的幻觉。用户可以核实答案的准确性从信息来源中获取支持。
4.高度定制能力RAG 模型可以根据特定领域的知识库和 prompt 进行定制使其快速具备该领域的能力。说明 RAG 模型广泛适用于的领域和应用比如虚拟伴侣、虚拟宠物等应用。
5.安全和隐私管理RAG 模型可以通过限制知识库的权限来实现安全控制确保敏感信息不被泄露提高了数据安全性。
6.减少训练成本RAG 模型在数据上具有很强的可拓展性可以将大量数据直接更新到知识库以实现模型的知识更新。这一过程的实现不需要重新训练模型更经济实惠。
RAG的一些应用场景
1.问答系统QA SystemsRAG 可以用于构建强大的问答系统能够回答用户提出的各种问题。它能够通过检索大规模文档集合来提供准确的答案无需针对每个问题进行特定训练。
2.文档生成和自动摘要Document Generation and Automatic SummarizationRAG 可用于自动生成文章段落、文档或自动摘要基于检索的知识来填充文本使得生成的内容更具信息价值。
3.智能助手和虚拟代理Intelligent Assistants and Virtual AgentsRAG 可以用于构建智能助手或虚拟代理结合聊天记录回答用户的问题、提供信息和执行任务无需进行特定任务微调。
4.信息检索Information RetrievalRAG 可以改进信息检索系统使其更准确深刻。用户可以提出更具体的查询不再局限于关键词匹配。
5.知识图谱填充Knowledge Graph PopulationRAG 可以用于填充知识图谱中的实体关系通过检索文档来识别和添加新的知识点。
RAG的未来发展趋势
RAG技术已超越了最初的文本问答范畴开始拥抱多样化的模态数据包括图像、音频、视频和代码。这一扩展催生了创新的多模态模型如
图像RA-CM3和BLIP-2等模型在图像和文本的检索与生成方面取得了突破。
音频和视频GSS方法和UEOP等技术在音频和视频的检索与生成方面展现了潜力。
代码RBPS和CoK等方法在代码检索和知识图谱问答任务中表现出色。
RAG技术最初被设计用于文本信息的检索和生成但其强大的知识增强能力使其在多模态数据领域具有巨大的潜力。随着人工智能技术的发展对能够处理图像、音频、视频和代码等多种数据类型的系统的需求日益增长。这种需求推动了RAG技术向多模态领域的扩展。
RAG技术面临的挑战
尽管RAG技术已取得显著进展但仍面临一些挑战其中包括
上下文长度限制LLMs的上下文窗口大小限制了RAG的有效性需要平衡信息的充分性和处理成本。 鲁棒性在检索过程中噪声或矛盾信息的存在可能严重影响RAG的输出质量。 混合方法RAGFT结合RAG和微调fine-tuning的策略正在兴起但如何优化两者的集成方式仍需探索。 LLM角色扩展LLMs在RAG框架中的作用不仅限于生成最终答案还包括检索和评估进一步挖掘LLMs的潜力成为研究的新方向。
综上我们能够看到未来RAG技术的发展将集中在以下几个方面技术优化、多模态融合、生态系统完善
随着RAG技术的不断进步其在AI领域的应用前景广阔预计将在学术和工业界引起更多关注。同时为了确保RAG技术的有效性和实用性对其评估方法的完善也将成为未来研究的关键方向。
如何系统的去学习AI大模型LLM
作为一名热心肠的互联网老兵我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
有需要的小伙伴可以V扫描下方二维码免费领取 一、全套AGI大模型学习路线
AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能 二、640套AI大模型报告合集
这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示。 三、AI大模型经典PDF籍
随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。 四、AI大模型商业化落地方案 阶段1AI大模型时代的基础理解
目标了解AI大模型的基本概念、发展历程和核心原理。内容 L1.1 人工智能简述与大模型起源L1.2 大模型与通用人工智能L1.3 GPT模型的发展历程L1.4 模型工程 - L1.4.1 知识大模型 - L1.4.2 生产大模型 - L1.4.3 模型工程方法论 - L1.4.4 模型工程实践L1.5 GPT应用案例
阶段2AI大模型API应用开发工程
目标掌握AI大模型API的使用和开发以及相关的编程技能。内容 L2.1 API接口 - L2.1.1 OpenAI API接口 - L2.1.2 Python接口接入 - L2.1.3 BOT工具类框架 - L2.1.4 代码示例L2.2 Prompt框架 - L2.2.1 什么是Prompt - L2.2.2 Prompt框架应用现状 - L2.2.3 基于GPTAS的Prompt框架 - L2.2.4 Prompt框架与Thought - L2.2.5 Prompt框架与提示词L2.3 流水线工程 - L2.3.1 流水线工程的概念 - L2.3.2 流水线工程的优点 - L2.3.3 流水线工程的应用L2.4 总结与展望
阶段3AI大模型应用架构实践
目标深入理解AI大模型的应用架构并能够进行私有化部署。内容 L3.1 Agent模型框架 - L3.1.1 Agent模型框架的设计理念 - L3.1.2 Agent模型框架的核心组件 - L3.1.3 Agent模型框架的实现细节L3.2 MetaGPT - L3.2.1 MetaGPT的基本概念 - L3.2.2 MetaGPT的工作原理 - L3.2.3 MetaGPT的应用场景L3.3 ChatGLM - L3.3.1 ChatGLM的特点 - L3.3.2 ChatGLM的开发环境 - L3.3.3 ChatGLM的使用示例L3.4 LLAMA - L3.4.1 LLAMA的特点 - L3.4.2 LLAMA的开发环境 - L3.4.3 LLAMA的使用示例L3.5 其他大模型介绍
阶段4AI大模型私有化部署
目标掌握多种AI大模型的私有化部署包括多模态和特定领域模型。内容 L4.1 模型私有化部署概述L4.2 模型私有化部署的关键技术L4.3 模型私有化部署的实施步骤L4.4 模型私有化部署的应用场景
学习计划
阶段11-2个月建立AI大模型的基础知识体系。阶段22-3个月专注于API应用开发能力的提升。阶段33-4个月深入实践AI大模型的应用架构和私有化部署。阶段44-5个月专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
有需要的小伙伴可以Vx扫描下方二维码免费领取