曲靖网站制作一条龙,深圳网站建设的特殊性,wordpress支付文件在哪里设置密码,网站源文件修改目录
GPT原理#xff1a;文字接龙#xff0c;输入一个字#xff0c;后面会接最有可能出现的文字。
GPT4
学会提问#xff1a;发挥语言模型的最大能力 参考李宏毅老师的课快速了解大语言模型做的笔记#xff1a;
Lee老师幽默的开场#xff1a; GPT#xff1a;chat Ge…目录
GPT原理文字接龙输入一个字后面会接最有可能出现的文字。
GPT4
学会提问发挥语言模型的最大能力 参考李宏毅老师的课快速了解大语言模型做的笔记
Lee老师幽默的开场 GPTchat Generative Pre-trained Transformer
GPTS专属的客制化的老师。
GPT原理文字接龙输入一个字后面会接最有可能出现的文字。 回答问题的方式 给每一个后面可能输出的符号一个概率值输出概率最大的字符token。拆成token的方式也是比较有意思会根据词性词缀或者短语来生成token那为什么这样子分呢 因为英文单词是无法穷举的他太多了而token是一个可以进行穷举类似的中文方块字的token划分方式也是如此可能将短语、不同词性的词划分成一个token。 而且输出一个词会将输出的词又添加到输入词的后面然后又生成后续的一个token直到end的几率是最高的就结束。其实最后的输出并不是概率最大就输出概率大的token而是进行一个掷色子的操作所以就导致每次输出的结果可能是不同的那为什么每次不选概率最大的进行输出呢 有论文验证为什么要掷骰子 这篇论文就讲了如果每次选几率最大的token可能输出会出现左边的情况每次说的一样的话而右边就是比较正常的所以chatGPT才会出现骗人的场景。 但是台湾省是没有玫瑰花节日的但你告诉GPT是有的GPT就会进行乱说并生成一个假的网址。 那它是如何有记忆功能的呢就是上下文联通的功能比如这样 是因为你问的问题包括GPT输出的内容GPT都会作为模型的输入最后输出新的回答。 实际上模型所做的事情
将最有可能输出的token的几率升高一点将其他token的输出的几率降低一点然后依次类推 Transformer里面的每个方块其实就是线性袋鼠的矩阵运算需要大量可学习的参数里面有上亿个参数。 上图是第一代的GPT。
然后慢慢的 不愧是李老师PPT还是这么的幽默模型参数量越来越大 这是当时与其他模型相比时的正确率当时准确率还不算特别高。然后OPENAI还不善罢甘休他们说GPT3其实已经很聪明了他为什么准确率不高是因为他不知道人类社会的规则他只是学习了网络上的很多资料碰到什么学什么根本不知道他要做什么事情而且回答是毫无逻辑的 SO下一个阶段 那就是让他继续学习。引入人类老师来指导GPT进行学习那这种方法叫做监督式学习而前面的方法叫做自监督学习所以前面就是预训练后面老师的指导就是大模型微调我终于懂了 Fine-Tune 这里有篇论文论证了监督式学习的重要性https://arxiv.org/abs/2203.02155, 上图说明的问题是1大的模型没有监督式学习老师的监督也可能不会超过小模型通过好的监督式学习的方式小模型也有机会胜过大模型
2好的老师大模型效果会更好。 还有增强式学习强化学习不提供正确的答案而是提供反馈什么样的答案是好的什么样的答案是不好的监督式学习人类就需要花费比较多的时间或者精力而增强式学习我们每个人都可以做出贡献我们在提问的同时就可以隐式的引导GPT回答出更加准确的答案强化学习这边的知识我还没学过下次有机会学学。 强化学习一般放在网络的后端进行引导。
ChatGPT的强化学习步骤
1模仿老师的偏好 2向模拟老师学习 监督式学习强化学习也就是Alignment!!!(原来如此就是对齐的过程。 GPT4
然后GPT4技术报告长达近百页作者就有3页主要就是炫耀GPT4有多麽多麽强。但是技术细节论文里面是没有写的 亮点就是看得见了可以传图片给GPT4理解图片。 发挥语言模型的最大能力
1.把需求写清楚
2.提供资料给ChatGPT
3.提供范例描述给他抽象的内容比如晶晶体。
4.鼓励ChatGPT再想一想让他解决问题时候不要让他直接给答案让他一步一步给出计算过程那他答对的几率就会大大增加。