查找人网站 优帮云,怎样创办网站,新增接入 新增网站,哪些网站可以做企业推广在现实生活中#xff0c;许多规则的获取通常需要使用语言作为桥梁#xff0c;特别是语义在信息传递中起着至关重要的作用。另外#xff0c;个体使用的语言往往具有明显的奖励和惩罚元素#xff0c;如赞扬和批评。一种常见的规则是寻求更多的赞扬#xff0c;同时避免批评。…在现实生活中许多规则的获取通常需要使用语言作为桥梁特别是语义在信息传递中起着至关重要的作用。另外个体使用的语言往往具有明显的奖励和惩罚元素如赞扬和批评。一种常见的规则是寻求更多的赞扬同时避免批评。以往的研究使用概率反转学习任务来检查抽象规则的学习。这个任务的结构涉及两个行为选择的奖励分配当一个行为是高奖励则另一个必然是高惩罚反之亦然并且在一段时间后规则将会发生偶然性的反转。这些研究经常使用不规则的图像作为刺激以检查非语言刺激和反应之间的联系。然而与非语言刺激相比词汇的语义处理需要额外的认知资源语义和反应之间的连接可能会更加复杂。 近日辽宁师范大学脑与认知神经科学研究中心的刘欢欢副教授通讯作者和刘林焱第一作者在国际高水平期刊《NeuroImage》上发表题为“The right superior temporal gyrus plays a role in semantic-rule learning: Evidence supporting a reinforcement learning model”的研究论文。论文在强化学习框架下采用Rescorla-Wagner强化学习算法的分层贝叶斯扩展模型涉及期望值、预测误差、学习率和结果敏感性以此推断被试与规则学习相关的内部状态设计了语义规则和颜色规则的学习任务并巧妙的加入了一个弱语义规则学习任务即第二语言L2下的规则学习。结果表明涉及语义的规则学习并不是类似于条件刺激-反应的一般符号学习而是具有自己独特的特征右侧颞上沟在这种语义规则的学习中至关重要。 实验设计
实验要求被试判断何种规则即语义规则或颜色规则对应当前规则学习任务中的最高奖励概率。例如前20 次试验中的规则是颜色那么选择正确的颜色会导致奖励与惩罚的比例为8020。此时如果被试根据语义类别选择刺激则奖励与惩罚的比例为5050。该实验共进行四轮其中两次以中文呈现两次以英文呈现见图1。 图1 实验步骤和实验流程 实验结果 图2 行为结果 如图2所示当规则更新时被试重新学习了正确的规则。强化学习模型一共建立了四个语言模型、四个规则模型和一个基线模型。基线模型不包括语言和规则的影响。通过一般适用信息标准(WAIC)筛选出最优的语言模型和最优的规则模型。最后将最优的语言模型和最优的规则模型结合形成一个整合模型。如图3所示根据强化学习模型WAIC指标的比较整合模型具有最低的WAIC。 图3 强化学习模型对比 敏感性分析如图4所示L1组的敏感性显著高于L2。结果敏感度越高被试越倾向于获得奖励或不接受惩罚。fMRI的结果也表明在反馈阶段左侧纹状体MNI空间坐标:-33, - 6, 9在L1组下的激活强于L2GRF校正支持了母语反馈比外语反馈的规则学习更敏感。此外敏感性与不同语言下的平均奖励得分的相关分析表明敏感度越高的被试积累的奖励越多任务表现越好。 图4 结果敏感性的语言差异 如图5所示语义规则下对于预测误差的加工定位于右侧颞上回STG表明右侧STG是言语刺激学习中一个独特的脑区。注意这是回归的斜率差异而不是激活的差异。语义规则条件主效应的回归方向为正而颜色规则条件的回归方向为负表明不同规则在右侧STG的活动模式差异是定性的而不是定量的。 图5 基于模型分析的fMRI结果 结论
这项研究揭示了语义影响规则学习的神经基础。研究修正了传统的强化学习模型将语言对结果敏感性的影响、规则对学习率的影响纳入其中以证实语义通过特殊的“条件刺激”影响规则学习。结果表明母语的规则学习对反馈更为敏感被试能够根据当前规则调整自己的学习策略。重要的是这项研究揭示了语言刺激的规则学习存在独特的神经机制定位于右侧STG。这些发现强调了依赖于语言的规则学习有其特殊性不同于一般符号的学习。 论文信息Linyan Liu, Dongxue Liu, Tingting Guo, John W. Schwieter, Huanhuan Liu, The right superior temporal gyrus plays a role in semantic-rule learning: Evidence supporting a reinforcement learning model, NeuroImage (2023), doi: https://doi.org/10.1016/j.neuroimage.2023.120393