邯郸网站设计邯郸网站制作,苏州高端企业网站建设,好用的html编辑器,wordpress 租赁主题来源#xff1a;集智俱乐部作者#xff1a;田洋 审校#xff1a;梁金 编辑#xff1a;邓一雪 导语我们的大脑是一个处理信息的动力学系统。数百亿个神经元时刻接受内部和外部刺激#xff0c;对这些信息进行编码处理#xff0c;进而形成我们对世界的认知。大脑的信息机能本… 来源集智俱乐部作者田洋 审校梁金 编辑邓一雪 导语我们的大脑是一个处理信息的动力学系统。数百亿个神经元时刻接受内部和外部刺激对这些信息进行编码处理进而形成我们对世界的认知。大脑的信息机能本质上从神经元集群活动的动力学中涌现可是这种涌现到底是如何发生的我们的信息大脑和物理大脑之间有什么内在联系10月29日清华大学的研究团队在 Physical Review Research 上发表的一项最新理论研究揭示了大脑的神经动力学与信息加工属性间的基本关系或有助于我们理解大脑这个复杂系统中各类信息加工特性的涌现。研究领域神经科学统计物理大脑信息加工神经动力学集体运动涌现论文题目Bridging the information and dynamics attributes of neural activities论文链接https://doi.org/10.1103/PhysRevResearch.3.0430851. 动力学和信息大脑的双重属性理解大脑中信息加工机能的基础是现代物理学的前沿之一[1]。大量的研究证明大脑可以被视为一个加工信息的复杂动力学系统[2]。一方面作为动力学系统的大脑常受外部刺激[3-5]或内部因素[6-7]驱动而远离平衡态产生复杂的动力学过程。另一方面如果这些动力学过程是由刺激驱动的刺激的信息即在一定程度上被大脑编码[13]和存储[14]进而支撑各类认知过程[15-17]赋予了大脑作为信息加工系统的身份[18]。对大脑的这种双重属性的探索具有悠久的历史研究者在大脑中发现了大量的动力学和信息属性间的关系[4,19–21]证明大脑处理外界信息的认知机能或称为信息机能本质上依赖于其神经动力学。虽然单独对大脑的动力学[8–12]或信息属性[13–18,25,26]的研究已经取得了诸多进展我们依然不清楚为何大脑动力学与信息属性具有如此基础的联系。受到费米的大象“的启示[51]学界希望避免局限于唯像模拟而探索出一个解析的analytic理论以解释大脑中动力学和信息的联系例如见文献[20]的探索。在探索可能的解析理论的过程中研究者可能遇到以下困难。一方面研究者缺乏一个对神经活动中动力学[27]和信息属性[28]的进行统一分析的理论。另一方面不同于以概率论为基础的信息属性度量例如互信息和 Fisher 信息[13]对动力学属性的主流实验[38–40]和理论[12,41–50]刻画方法例如 Lyapunov 谱[49,50]多基于非概率的框架这阻碍了对动力学和信息属性关系的探讨。为了在一定程度上克服上述困难并为后续探索提供可能的方向来自清华大学心理学系清华大学脑与智能实验室以及清华大学类脑计算研究所的研究团队进行了一项探索性研究。该研究的部分结果2021年10月29日发表于物理期刊 Physical Review Research。研究者将探讨范围限定在了神经动力学、编码和解码三者之间见图1。作为相对基本的信息加工视角编码和解码能对神经信息加工属性进行基础的刻画。图1. 理论分析框架2. 神经活动的随机动力学研究者首先展示了一个基于非齐次马尔可夫链的随机动力学框架。在不借助其他假设或简化的情况下研究者只使用1神经调谐特性neural tuning properties即神经元的选择性响应特性以及2神经元动作电位在随机结构的神经群中的传输时延这两个基本的神经系统性质构建了随机动力学框架描述受刺激驱动的神经元集群动力学collective dynamics。具体例子可见图2。 图2. 受刺激驱动的神经元集群动力学在该框架的构建过程中研究者通过将点估计等后验统计方法融入数学推导克服了使用概率方法描述强耦合的神经元动力学的困难避免引入神经元独立性的假设并使得该随机动力学框架能直接基于真实实验数据进行后验估计。为了刻画基于随机动力学框架描述的神经活动的动力学属性研究者引入了KS 熵Kolmogorov-Sinai entropy的概念并基于马尔科夫链的性质给出了KS熵的明确表达。KS 熵可以被粗略地理解为在有限次采样或观测的条件下观测一个连续时间的动力系统所面临的不确定性。基于KS熵研究者可以在任意时刻计算神经元集群动力学中任意一个神经元的动力学分量的不确定性dynamic randomness。图3展示了一个示例。图3. 神经动力学的KS熵及其时空分布将KS 熵引入动力学分析的另一个重要意义在于其对混沌现象的刻画。KS熵与另一个更常见的动力学刻画方法——Lyapunov谱Lyapunov spectra——之间存在着深刻的数学联系。具体而言KS熵是Lyapunov谱中所有非负的Lyapunov指数之和的下界。同时Lyapunov谱刻画了动力系统的相空间中相邻轨道的收敛和发散性质。当存在非负的Lyapunov指数时动力系统在该指数对应的相空间方向上是混沌的。这意味着通过验证KS熵是否非零研究者能够判定动力系统是否存在混沌现象。KS熵越大则可以认为混沌的程度越大。3. 随机动力学的信息属性同时研究者刻画了神经元集群动力学的信息编码和解码属性见图4。在一定程度上可以将信息编码理解为给定刺激后基于神经活动来表征该刺激信息的过程可以将信息解码理解为给定神经活动后逆推诱发神经活动的刺激信息的过程。一般情况下信息编码是所有神经信息加工的起点而信息解码则是研究者间接分析神经信息编码的方法。图4. 基于信息编码和解码对信息加工的分析框架在神经科学和物理学中学界一般使用互信息mutual information等相关概念刻画信息编码并使用Fisher信息Fisher information刻画信息解码。一般而言互信息可以理解为对神经活动可以编码的刺激信息量的度量Fisher信息可以理解为对基于神经活动可以解码的刺激信息量的度量。研究者基于随机动力学框架给出了上述概念的时变time-dependent度量方法。4. 动力学和信息属性的基本关系基于上述工作研究者实现了一个以随机动力学框架为桥梁能够对动力学KS熵和信息编码和解码属性进行统一分析的理论。由于随机动力学本身支持对两类属性解析的计算而无需进行数值模拟或逼近研究者得以对两类属性间的联系进行解析的探索。在该工作中研究者展示了4个主要的发现。研究者首先分析了与信息加工相关的神经动力学自身的特性得到了发现1和2。相关数据可见图3和图5。发现1通过理论分析和数据分析研究者发现了神经动力学的短期变化和长期变化的随机性存在稳定的差异。神经动力学的短期变化的变化幅度较小但动力学随机性较大长期变化的变化幅度较大但动力学随机性较小发现2同时研究者发现了混沌现象在神经群中空间分布的不均匀性。如果研究者不控制神经元活动强度的空间分布不均匀性会发现神经元活动混沌程度随活动强度一样从“浅层“向“深层“的神经元递减此处“层“仅是形象的说法真实的微观尺度的神经群中不存在严格的分层结构读者可以自行将“浅层“和“深层“替换为“上游“和“下游“进行理解。当研究者对神经元活动强度进行标准化后排除活动强度的空间分布不均对于混沌现象的影响会发现相对“浅层“的神经元活动更具有规律性而相对“深层“的神经元活动的混沌程度更高。图5. KS熵及混沌现象在神经群中的空间分布而后研究者对动力学属性与信息编码和解码的关系进行了探索得到了发现3和4。具体数据可见图 6。发现3研究者发现特定的神经动力学可能导致信息编码和解码之间互相制约的关系。具体而言当神经动力学的随机性或混沌程度较低时信息编码和解码的效率以及质量会随着动力学随机性上升而上升。但是当神经动力学的随机性超过特定阈值后信息编码和解码的效率及质量就不再同向变化前者依然随着动力学随机性上升而上升后者则随动力学随机性的上升而下降。这意味着对于动力学随机性相对大的神经元群其编码和解码的性质之间存在权衡。研究者随后对这一现象给出了理论证明。发现4研究者还发现了神经动力学与神经元对外界刺激的表征neural representation之间的关系。具体而言相对“浅层“的神经元具备更稳定的动力学特性它们更多负责对刺激分布的局部信息进行特异化编码和表征而相对“深层“的神经元的动力学随机性更大它们更多负责对刺激分布的全局信息进行非特异化non-specific编码和表征。图6. 神经活动的动力学属性对编码、解码及刺激表征的影响5. 总结与讨论在该研究中研究者推导了刺激驱动的神经元集群动力学的随机动力学描述。基于随机动力学研究者一方面借助KS熵和Lyapunov谱的数学关系对神经动力学的动力学不确定性和混沌进行刻画另一方面直接基于概率框架给出了信息编码和解码属性的时变度量方法。结合理论推导和实验数据研究者解析地探索神经活动的动力学和信息属性间的关系并发现了4个基本性质。发现1或对神经信号记录neural signal recording的研究具有一定启示。研究者已经发现时间采样率低的信号记录技术例如fMRI不能直接反映潜在的刺激驱动的神经活动[53]。在被这些低时间采样率的技术记录之前短期的神经活动变化需要累积至其变化足够强烈和鲁棒[53]这伴随着神经活动信息的大量丢失[53-56]。对于这个问题一种传统的解决思路是尽可能开发高时间分辨率的记录技术例如多光子显微镜[67–69]。虽然发现1部分地支持这一思路该发现也指出了获得鲁棒的神经活动信号趋势和对神经活动信息的保持是不可兼得的。一个高时间分辨率的记录技术能够尽可能降低对神经活动信息的丢失但其记录的神经活动短期变化相较于低时间分辨率的技术具有极高的动力学随机性及较弱的鲁棒性。所以单纯提高记录技术的时间分辨率并不能彻底解决这个问题。在对发现2的分析中如果研究者选择不消除神经活动强度在空间分布上的不均匀性会观测到神经元活动的混沌程度与神经元活动强度一样随着神经元活动在神经群内的传播过程而逐渐递减。Diesmann曾经发现神经元活动在传播过程中存在一个吸引子[59]。在新近研究中[60]该吸引子被证实为是一个线性吸引子line attractor。这些研究表明神经动力学可变性会在足够长的传播过程中逐渐消失。研究者在更广义的随机图结构中证实了该现象参考发现2。而当研究者选择对神经活动强度进行标准化后发现刺激驱动的神经动力学在越“浅层”的神经元上越稳定在越“深层“的神经元上越混沌。这一现象与关于刺激驱动对混沌现象的抑制能力stimulus drives suppress chaos的著名发现[61]是一致的。研究者发现输入驱动和刺激诱发神经元协同的确能抑制混沌。随着神经元活动的传播这种刺激与神经元间的协同逐渐减弱并逐渐被网络动力学的混沌所掩盖。当然这并不意味着神经元对于刺激的响应彻底变成了混沌而不可靠的。在真实的神经元群中由神经元调谐特性neural tuning properties主导的规律性与由网络动力学主导的混沌是共存的。虽然神经元活动的规律性regularity经常被混沌打破但神经元活动的混沌程度并不会持续地保持或上升[例如见图 3b]。这些观测结果与已有研究对刺激驱动的神经活动的混沌程度与可靠性的关系的探索结果一致[62,63]。发现3或许对认知功能的神经或皮层基础定位的研究[15,64,65]有潜在的启示。这些研究多侧重分析特定神经群、神经环路或皮层的信息加工特性。其分析首先以特定信号记录技术例如多光子显微镜[66,67]、多电极记录[68,69]和fMRI对神经活动进行记录再从信息编码[13,70]或解码[71–73]的角度对神经活动进行分析。研究者指出了这类研究存在的潜在风险——从编码或解码角度对信息加工效率进行直接或间接的度量可能会得到不一致甚至相反的结果参考发现3。例如一方面如果研究者从解码的角度进行间接分析那在编码过程中真正高效的神经元或皮层可能因其较低的解码效率而被忽略。另一方面在解码过程中相对高效的神经元或皮层常有许多不能被刺激解释的神经活动这给分析带来了极大的噪音。这些潜在的风险或许会导致功能研究中的假阴性问题和可重复性问题[74]。此外该研究揭示了1在神经信号记录过程中得到鲁棒的信号趋势和保持神经活动信息间的矛盾以及2在记录的神经信号中编码和解码属性可能存在的制约关系参考发现1和3。虽然具有高时间分辨率的记录技术能够捕捉高频的神经活动变化短期神经活动变化的高动力学随机性通常会阻碍研究者得到鲁棒的神经信号并且可能导致编码、解码分析结果的不一致。时间分辨率较低的记录技术不能捕捉高频的神经活动但其能够记录动力学随机性相对较小的神经活动并在一定程度上避免编码、解码分析结果的分歧。所以一个多时间分辨率的multitemporal-resolution recording神经信号记录体系[75–77]或许能兼具高时间分辨率和低时间分辨率的记录技术的优点并在一定程度上克服两者的缺陷。发现4或许对认知神经科学具有一定启示。研究者指出了“浅层“的神经元活动与刺激分布的局部信息更相关而“深层“的神经元活动与对刺激分布全局信息的加工更相关参考发现2和4。在某种程度上对于刺激分布全局信息的加工可以被理解为神经元在刺激响应过程中所具备的泛化能力。这种自发涌现的差异性指出了“浅层“神经元负责编码局部刺激信息而“深层“神经元负责编码全局刺激信息的可能。这种自发形成的神经元间的分工体系或许在自下而上的bottom-up信息加工过程中具有重要的意义。参考文献[1] G. Collell and J. Fauquet, Brain activity and cognition: A connection from thermodynamics and information theory, Front. Psychol. 6, 818 (2015)[2] P. Dayan and L. F. Abbott, Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems (MIT Press, Cambridge, MA, 2001).[3] A. S. Shah, S. L. Bressler, K. H. Knuth, M. Ding, A. D. Mehta, I. Ulbert, and C. E. Schroeder, Neural dynamics and the fundamental mechanisms of event-related brain potentials, Cerebal Cortex 14, 476 (2004).[4] T. P. Vogels, K. Rajan, and L. F. Abbott, Neural network dynamics, Annu. Rev. Neurosci. 28, 357 (2005).[5] G. Deco and E. Hugues, Neural network mechanisms underlying stimulus driven variability reduction, PLoS Comput. Biol 8, e1002395 (2012).[6] B. L. Foster, B. J. He, C. J. Honey, K. Jerbi, A. Maier, and Y. B. Saalmann, Spontaneous neural dynamics and multiscale network organization, Front. Syst. Neurosci. 10, 7 (2016)[7] R. F. Galán, On how network architecture determines the dominant patterns of spontaneous neural activity, PloS ONE 3, e2148 (2008).[8] S. Coombes, Large-scale neural dynamics: Simple and complex, NeuroImage 52, 731 (2010).[9] D. R. Chialvo, Emergent complex neural dynamics, Nat. Phys. 6, 744 (2010).[10] E. D. Lumer, G. M. Edelman, and G. Tononi, Neural dynamics in a model of the thalamocortical system. I. Layers, loops and the emergence of fast synchronous rhythms, Cerebral Cortex 7, 207 (1997).[11] E. D. Lumer, G. M. Edelman, and G. Tononi, Neural dynamics in a model of the thalamocortical system. II. The role of neural synchrony tested through perturbations of spike timing, Cerebral Cortex 7, 228 (1997).[12] M. Martinello, J. Hidalgo, A. Maritan, S. di Santo, D. Plenz, and M. A. Muñoz, Neutral Theory and Scale-Free Neural Dynamics, Phys. Rev. X 7, 041071 (2017).[13] A. Borst and F. E. Theunissen, Information theory and neural coding, Nat. Neurosci. 2, 947 (1999).[14] D. J. Amit, H. Gutfreund, and H. Sompolinsky, Information storage in neural networks with low levels of activity, Phys. Rev. A 35, 2293 (1987).[15] D. Purves, R. Cabeza, S. A. Huettel, K. S. LaBar, M. L. Platt, M. G. Woldorff, and E. M. Brannon, Cognitive Neuroscience (Sinauer Associates, Sunderland, MA, 2008)[16] D. A. Butts, C. Weng, J. Jin, C.-I. Yeh, N. A. Lesica, J.-M. Alonso, and G. B. Stanley, Temporal precision in the neural code and the timescales of natural vision, Nature (London) 449, 92 (2007).[17] G. Laurent and H. Davidowitz, Encoding of olfactory information with oscillating neural assemblies, Science 265, 1872 (1994).[18] B. B. Averbeck, P. E. Latham, and A. Pouget, Neural correlations, population coding and computation, Nat. Rev. Neurosci. 7, 358 (2006).[19] E. Harth, T. Csermely, B. Beek, and R. Lindsay, Brain functions and neural dynamics, J. Theor. Biol. 26, 93 (1970).[20] G. B. Ermentrout, R. F. Galán, and N. N. Urban, Relating Neural Dynamics to Neural Coding, Phys. Rev. Lett. 99, 248103 (2007).[21] J. D. Murray, A. Bernacchia, N. A. Roy, C. Constantinidis, R. Romo, and X.-J. Wang, Stable population coding for working memory coexists with heterogeneous neural dynamics in prefrontal cortex, Proc. Natl. Acad. Sci. USA 114, 394 (2017).[22] B. Cessac, H. Paugam-Moisy, and T. Viéville, Overview of facts and issues about neural coding by spikes, J. Physiol. Paris 104, 5 (2010).[23] N. Brenner, S. P. Strong, R. Koberle, W. Bialek, and R. R. d. R. v. Steveninck, Synergy in a neural code, Neural Comput. 12, 1531 (2000).[24] C. E. Schroeder, D. A. Wilson, T. Radman, H. Scharfman, and P. Lakatos, Dynamics of active sensing and perceptual selection, Curr. Opin. Neurobiol. 20, 172 (2010). [25] W. E. Skaggs, B. L. McNaughton, and K. M. Gothard, An information-theoretic approach to deciphering the hippocampal code, in Advances in Neural Information Processing Systems, edited by J. Cowan, G. Tesauro, and J. Alspector (Morgan Kaufmann, MA, 1993), pp. 1030–1037.[26] R. Linsker, Perceptual neural organization: Some approaches based on network models and information theory, Annu. Rev. Neurosci. 13, 257 (1990).[27] A. Katok and B. Hasselblatt, Introduction to the Modern Theory of Dynamical Systems (Cambridge University Press, New York, 1997), Vol. 54.[28] I. Aleksandr and A. Khinchin, Mathematical Foundations of Information Theory (Dover Publications Inc., New York, 1957), Vol. 54.[29] L. Paninski, E. P. Simoncelli, and J. W. Pillow, Maximum likelihood estimation of a stochastic integrate-and-fire neural model, in Advances in Neural Information Processing Systems, edited by L. Saul, Y. Weiss, and L. Bottou (MIT Press, Cambridge, 2004), pp. 1311–1318.[30] D. Heeger, Poisson model of spike generation (unpublished).[31] R. Barbieri, M. C. Quirk, L. M. Frank, M. A. Wilson, and E. N. Brown, Construction and analysis of non-Poisson stimulusresponse models of neural spiking activity, J. Neurosci. Methods 105, 25 (2001).[32] A. N. Burkitt, A review of the integrate-and-fire neuron model: II. Inhomogeneous synaptic input and network properties, Biol. Cybern. 95, 97 (2006). [33] A. L. Hodgkin and A. F. Huxley, A quantitative description of membrane current and its application to conduction and excitation in nerve, J. Physiol. 117, 500 (1952). [34] R. B. Stein, A theoretical analysis of neuronal variability, Biophys. J. 5, 173 (1965). [35] E. M. Izhikevich, Simple model of spiking neurons, IEEE Trans. Neural Netw, 14, 1569 (2003). [36] W. Gerstner and W. M. Kistler, Spiking Neuron Models: Single Neurons, Populations, Plasticity (Cambridge University Press, New York, NY, 2002).[37] M. Tsodyks, K. Pawelzik, and H. Markram, Neural networks with dynamic synapses, Neural Comput. 10, 821 (1998).[38] S. Grossberg and E. Mingolla, Neural dynamics of perceptual grouping: Textures, boundaries, and emergent segmentations, in The Adaptive Brain II, edited by S. Grossberg (Elsevier, 1987), pp. 143–210.[39] S. Grossberg and M. Kuperstein, Neural Dynamics of Adaptive Sensory-Motor Control: Ballistic Eye Movements (Elsevier, Amsterdam, Netherlands, 2011).[40] J. D. Seelig and V. Jayaraman, Neural dynamics for landmark orientation and angular path integration, Nature (London) 521, 186 (2015).[41] L. Buesing, J. Bill, B. Nessler, and W. Maass, Neural dynamics as sampling: A model for stochastic computation in recurrent networks of spiking neurons, PLoS Comput. Biol. 7, e1002211 (2011).[42] A. V. Herz, T. Gollisch, C. K. Machens, and D. Jaeger, Modeling single-neuron dynamics and computations: A balance of detail and abstraction, Science 314, 80 (2006).[43] G. Dror and M. Tsodyks, Chaos in neural networks with dynamic synapses, Neurocomputing 32, 365 (2000).[44] S.-I. Amari, Dynamics of pattern formation in lateralinhibition type neural fields, Biol. Cybern. 27, 77 (1977).[45] K. Kishimoto and S.-I. Amari, Existence and stability of local excitations in homogeneous neural fields, J. Math. Biol. 7, 303 (1979). [46] N. P. Rougier, Dynamic neural field with local inhibition, Biol. Cybern. 94, 169 (2006).[47] A. Hutt, M. Bestehorn, and T. Wennekers, Pattern formation in intracortical neuronal fields, Netw. Comput. Neural Syst. 14, 351 (2003).[48] E. Montbrió, D. Pazó, and A. Roxin, Macroscopic Description for Networks of Spiking Neurons, Phys. Rev. X 5, 021028 (2015).[49] R. Engelken, F. Wolf, and L. F. Abbott, Lyapunov spectra of chaotic recurrent neural networks, arXiv:2006.02427.[50] H. Sompolinsky, A. Crisanti, and H.-J. Sommers, Chaos in Random Neural Networks, Phys. Rev. Lett. 61, 259 (1988)[51] “A meeting with Enrico Fermi“ in Nature 427 (22 January 2004) p. 297[52] Tian Y, Li G, Sun P. Bridging the information and dynamics attributes of neural activities[J]. Physical Review Research, 2021, 3(4): 043085.[53] N. K. Logothetis, J. Pauls, M. Augath, T. Trinath, and A. Oeltermann, Neurophysiological investigation of the basis of the FMRI signal, Nature (London) 412, 150 (2001).[54] K. Lundengård, in Mechanistic Modelling—A BOLD Response to the fMRI Information Loss Problem, Linköping University Medical Dissertations (Linköping University Electronic Press, Linköping, Sweden, 2017), Vol. 1591.[55] A. Ekstrom, How and when the FMRI bold signal relates to underlying neural activity: The danger in dissociation, Brain Res. Rev. 62, 233 (2010). [62] K. D. Singh, Which neural activity do you mean? FMRI, MEG, oscillations and neurotransmitters, Neuroimage 62, 1121 (2012).[56] B. Li, C. Wu, M. Wang, K. Charan, and C. Xu, An adaptive excitation source for high-speed multiphoton microscopy, Nature Methods 17, 163 (2020).[57] M. J. Levene, D. A. Dombeck, K. A. Kasischke, R. P. Molloy, and W. W. Webb, In vivo multiphoton microscopy of deep brain tissue, J. Neurophysiol. 91, 1908 (2004). [58] F. Helmchen and W. Denk, New developments in multiphoton microscopy, Curr. Opin. Neurobiol. 12, 593 (2002).[59] M. Diesmann, M.-O. Gewaltig, and A. Aertsen, Stable propagation of synchronous spiking in cortical neural networks, Nature (London) 402, 529 (1999). [60] Z. Xiao, J. Zhang, A. T. Sornborger, and L. Tao, Cusps enable line attractors for neural computation, Phys. Rev. E 96, 052308 (2017).[61] L. Molgedey, J. Schuchhardt, and H. G. Schuster, Suppressing Chaos in Neural Networks by Noise, Phys. Rev. Lett. 69, 3717 (1992).[62] G. Lajoie, K. K. Lin, and E. Shea-Brown, Chaos and reliability in balanced spiking networks with temporal drive, Phys. Rev. E 87, 052901 (2013).[63] G. Lajoie, J.-P. Thivierge, and E. Shea-Brown, Structured chaos shapes spike-response noise entropy in balanced neural networks, Front. Comput. Neurosci. 8, 123 (2014).[64] R. E. Passingham, K. E. Stephan, and R. Kötter, The anatomical basis of functional localization in the cortex, Nat. Rev. Neurosci. 3, 606 (2002).[65] A. Gholipour, N. Kehtarnavaz, R. Briggs, M. Devous, and K. Gopinath, Brain functional localization: A survey of image registration techniques, IEEE Trans. Med. Imaging 26, 427 (2007).[66] G. D. Reddy, K. Kelleher, R. Fink, and P. Saggau, Threedimensional random access multiphoton microscopy for functional imaging of neuronal activity, Nat. Neurosci. 11, 713 (2008).[67] K. W. Dunn and T. A. Sutton, Functional studies in living animals using multiphoton microscopy, ILAR J. 49, 66 (2008).[68] I. Ulbert, E. Halgren, G. Heit, and G. Karmos, Multiple microelectrode-recording system for human intracortical applications, J. Neurosci. Methods 106, 69 (2001). [69] D. D. Cox, A. M. Papanastassiou, D. Oreper, B. B. Andken, and J. J. DiCarlo, High-resolution three-dimensional microelectrode brain mapping using stereo microfocal x-ray imaging, J. Neurophysiol. 100, 2966 (2008).[70] I. Nemenman, G. D. Lewen, W. Bialek, and R. R. D. R. Van Steveninck, Neural coding of natural stimuli: Information at sub-millisecond resolution, PLoS Comput. Biol. 4, e1000025 (2008).[71] S. Wu, S.-i. Amari, and H. Nakahara, Population coding and decoding in a neural field: A computational study, Neural Comput. 14, 999 (2002).[72] R. Q. Quiroga and S. Panzeri, Extracting information from neuronal populations: Information theory and decoding approaches, Nat. Rev. Neurosci. 10, 173 (2009). [73] T. Toyoizumi, K. Aihara, and S.-I. Amari, Fisher Information for Spike-Based Population Decoding, Phys. Rev. Lett. 97, 098102 (2006).[74] M. Brett, I. S. Johnsrude, and A. M. Owen, The problem of functional localization in the human brain, Nat. Rev. Neurosci. 3, 243 (2002).[75] S. Qin and Z. Ji, Multi-Resolution Time-Frequency Analysis for Detection of Rhythms of EEG Signals, in 3rd IEEE Signal Processing Education Workshop (IEEE, 2004), pp. 338–341.[76] Y. Li, H.-L. Wei, S. A. Billings, and P. Sarrigiannis, Time-varying model identification for time–frequency feature extraction from EEG data, J. Neurosci. Methods 196, 151 (2011).[77] K. Indiradevi, E. Elias, P. Sathidevi, S. D. Nayak, and K. Radhakrishnan, A multi-level wavelet approach for automatic detection of epileptic spikes in the electroencephalogram, Comput. Biol. Med. 38, 805 (2008).参考文献可上下滑动查看未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”