邯郸哪家公司做企业网站比较专业,python微信网站开发,响应式企业展示型网站,一级造价工程师iclr 2024 spotlight reviewer 评分 5668
1 intro
由大型语言模型驱动的对话代理#xff08;ChatGPT#xff0c;Claude 2#xff0c;Bard#xff0c;Bing Chat#xff09; 他们的开发流程通常包括三个主要阶段 预训练语言模型在被称为“指令调优”数据集上进行微调…iclr 2024 spotlight reviewer 评分 5668
1 intro
由大型语言模型驱动的对话代理ChatGPTClaude 2BardBing Chat 他们的开发流程通常包括三个主要阶段 预训练语言模型在被称为“指令调优”数据集上进行微调以使模型的行为与人类偏好保持一致可选地应用基于人类反馈的强化学习RLHF以进一步优化模型的响应虽然基础模型训练数据丰富且容易获得但关键的指令调优数据集往往是专有的这导致希望推进该领域的研究人员在可访问性上存在差距现有的用户-聊天机器人互动数据集主要有两种类型 自然使用案例 包括实际用户互动大多是专有的专家策划的集合 研究人员通常不得不依赖专家策划的数据集这些数据集在分布上通常与现实世界的互动不同而且通常限于单轮对话为了弥补这一差距本文介绍了(INTHE)WILDCHAT数据集 一个全面的多轮、多语种数据集包括通过ChatGPT和GPT-4 API支持的聊天机器人服务收集的570,000次完整对话涵盖超过150万次互动轮次WILDCHAT服务于多个研究目的 提供了比现有聊天机器人数据集更接近现实世界的多轮、多语种用户-聊天机器人互动的近似填补了研究社区可用资源的重要空白分析表明WILDCHAT在语言和语义方面比现有数据集更具多样性在这个数据集中发现了令人惊讶的高水平的毒性——超过10%的互动展示了该数据集用于指令调优聊天机器人的有效性——仅在原始数据集上进行微调的语言模型就超过了最先进的开源聊天机器人 2 数据收集
2.1 收集方法
为了收集WILDCHAT数据集论文部署了两个聊天机器人服务一个基于GPT-3.5-turbo API另一个基于GPT-4 API这两个服务都托管在Hugging Face Spaces上并向公众开放 2.2 用户同意机制 2.3 数据预处理
上述数据收集步骤产生了1,543,271条对话日志其中包括部分对话和完整对话。为了识别并移除部分对话论文检查一个对话日志是否是任何其他对话日志的前缀 这一处理步骤产生了586,031条完整对话。然后论文尽最大努力移除对话中的个人身份信息PII。论文还过滤掉了13,638条对话这些对话中要么是用户连续发言要么是助手连续发言以保持一致的用户-助手轮换格式。——这些预处理步骤共留下了572,393条对话。 3 数据分析 4 毒性分析 5 使用WILDCHAT进行instruction tuning
在WILDCHAT上训练了一个Llama-2 7B模型从而产生了一个称为WILDLLAMA的新模型 第6章 局限性
6.1 用户人口统计学
鉴于聊天机器人服务托管在Hugging Face Spaces上与之交互的大多数用户可能是开发者或与IT社区密切相关的人士。这一人群可能并不反映一般人口并且可能也解释了数据集中出现的特定类型的对话如编程问题。
6.2 毒性选择偏见
用户使用论文提供的聊天机器人服务的一个潜在原因是它提供匿名性。论文怀疑这些用户可能更倾向于产生他们在需要账户注册的平台上不会分享的内容。作为一个典型的例子如Hacker News中的讨论所示匿名平台有时可能吸引更多毒性质的内容。然而我们服务的匿名性使得更详细地分析我们用户群的人口统计学变得具有挑战性。