信息大脑如何从物理大脑中涌现?

18910b335897931d30a3e69e8806a071.png

来源:集智俱乐部

作者:田洋 

审校:梁金 

编辑:邓一雪 

导语

我们的大脑是一个处理信息的动力学系统。数百亿个神经元时刻接受内部和外部刺激,对这些信息进行编码处理,进而形成我们对世界的认知。大脑的信息机能本质上从神经元集群活动的动力学中涌现,可是这种涌现到底是如何发生的?我们的信息大脑和物理大脑之间有什么内在联系?10月29日,清华大学的研究团队在 Physical Review Research 上发表的一项最新理论研究,揭示了大脑的神经动力学与信息加工属性间的基本关系,或有助于我们理解大脑这个复杂系统中各类信息加工特性的涌现。

研究领域:神经科学,统计物理,大脑信息加工,神经动力学,集体运动,涌现

b9380258a741e796b97fb4606a84f461.png

论文题目:

Bridging the information and dynamics attributes of neural activities

论文链接:

https://doi.org/10.1103/PhysRevResearch.3.043085

1. 动力学和信息:大脑的双重属性

理解大脑中信息加工机能的基础是现代物理学的前沿之一[1]。大量的研究证明大脑可以被视为一个加工信息的复杂动力学系统[2]。一方面,作为动力学系统的大脑常受外部刺激[3-5]或内部因素[6-7]驱动而远离平衡态,产生复杂的动力学过程。另一方面,如果这些动力学过程是由刺激驱动的,刺激的信息即在一定程度上被大脑编码[13]和存储[14],进而支撑各类认知过程[15-17],赋予了大脑作为信息加工系统的身份[18]。对大脑的这种双重属性的探索具有悠久的历史,研究者在大脑中发现了大量的动力学和信息属性间的关系[4,19–21],证明大脑处理外界信息的认知机能(或称为信息机能)本质上依赖于其神经动力学

虽然单独对大脑的动力学[8–12]或信息属性[13–18,25,26]的研究已经取得了诸多进展,我们依然不清楚为何大脑动力学与信息属性具有如此基础的联系。受到费米的大象“的启示[51],学界希望避免局限于唯像模拟,而探索出一个解析的(analytic)理论以解释大脑中动力学和信息的联系(例如,见文献[20]的探索)。在探索可能的解析理论的过程中,研究者可能遇到以下困难。一方面,研究者缺乏一个对神经活动中动力学[27]和信息属性[28]的进行统一分析的理论。另一方面,不同于以概率论为基础的信息属性度量(例如互信息和 Fisher 信息[13]),对动力学属性的主流实验[38–40]和理论[12,41–50]刻画方法(例如 Lyapunov 谱[49,50])多基于非概率的框架,这阻碍了对动力学和信息属性关系的探讨。

为了在一定程度上克服上述困难并为后续探索提供可能的方向,来自清华大学心理学系&清华大学脑与智能实验室以及清华大学类脑计算研究所的研究团队进行了一项探索性研究。该研究的部分结果2021年10月29日发表于物理期刊 Physical Review Research。研究者将探讨范围限定在了神经动力学、编码和解码三者之间(见图1)。作为相对基本的信息加工视角,编码和解码能对神经信息加工属性进行基础的刻画。

5fd5ebbe954263c8c11b23755560891d.png

图1. 理论分析框架

2. 神经活动的随机动力学

研究者首先展示了一个基于非齐次马尔可夫链的随机动力学框架。在不借助其他假设或简化的情况下,研究者只使用(1)神经调谐特性(neural tuning properties,即神经元的选择性响应特性)以及(2)神经元动作电位在随机结构的神经群中的传输时延这两个基本的神经系统性质,构建了随机动力学框架描述受刺激驱动的神经元集群动力学(collective dynamics)。具体例子可见图2。

 f5959d901db425e988ac81ae607faf94.png

图2. 受刺激驱动的神经元集群动力学

在该框架的构建过程中,研究者通过将点估计等后验统计方法融入数学推导,克服了使用概率方法描述强耦合的神经元动力学的困难,避免引入神经元独立性的假设,并使得该随机动力学框架能直接基于真实实验数据进行后验估计。

为了刻画基于随机动力学框架描述的神经活动的动力学属性,研究者引入了KS 熵(Kolmogorov-Sinai entropy)的概念,并基于马尔科夫链的性质给出了KS熵的明确表达。KS 熵可以被粗略地理解为在有限次采样(或观测)的条件下,观测一个连续时间的动力系统所面临的不确定性。基于KS熵,研究者可以在任意时刻计算神经元集群动力学中任意一个神经元的动力学分量的不确定性(dynamic randomness)。图3展示了一个示例。

c67d425ccc95ae9e633c611202668bcc.png

图3. 神经动力学的KS熵及其时空分布

将KS 熵引入动力学分析的另一个重要意义在于其对混沌现象的刻画。KS熵与另一个更常见的动力学刻画方法——Lyapunov谱(Lyapunov spectra)——之间存在着深刻的数学联系。具体而言,KS熵是Lyapunov谱中所有非负的Lyapunov指数之和的下界。同时,Lyapunov谱刻画了动力系统的相空间中相邻轨道的收敛和发散性质。当存在非负的Lyapunov指数时,动力系统在该指数对应的相空间方向上是混沌的。这意味着,通过验证KS熵是否非零,研究者能够判定动力系统是否存在混沌现象。KS熵越大,则可以认为混沌的程度越大。

3. 随机动力学的信息属性

同时,研究者刻画了神经元集群动力学的信息编码和解码属性(见图4)。在一定程度上,可以将信息编码理解为给定刺激后,基于神经活动来表征该刺激信息的过程;可以将信息解码理解为给定神经活动后,逆推诱发神经活动的刺激信息的过程。一般情况下,信息编码是所有神经信息加工的起点,而信息解码则是研究者间接分析神经信息编码的方法。

0f36db26bf74eb3d9d3fa8fcaed21685.png

图4. 基于信息编码和解码对信息加工的分析框架

在神经科学和物理学中,学界一般使用互信息(mutual information)等相关概念刻画信息编码,并使用Fisher信息(Fisher information)刻画信息解码。一般而言,互信息可以理解为对神经活动可以编码的刺激信息量的度量,Fisher信息可以理解为对基于神经活动可以解码的刺激信息量的度量。研究者基于随机动力学框架给出了上述概念的时变(time-dependent)度量方法。

4. 动力学和信息属性的基本关系

基于上述工作,研究者实现了一个以随机动力学框架为桥梁,能够对动力学(KS熵)和信息(编码和解码)属性进行统一分析的理论。由于随机动力学本身支持对两类属性解析的计算,而无需进行数值模拟或逼近,研究者得以对两类属性间的联系进行解析的探索。在该工作中,研究者展示了4个主要的发现。

研究者首先分析了与信息加工相关的神经动力学自身的特性,得到了发现1和2。相关数据可见图3和图5。

  • 发现1

通过理论分析和数据分析,研究者发现了神经动力学的短期变化和长期变化的随机性存在稳定的差异。神经动力学的短期变化的变化幅度较小,但动力学随机性较大;长期变化的变化幅度较大,但动力学随机性较小;

  • 发现2

同时,研究者发现了混沌现象在神经群中空间分布的不均匀性。如果研究者不控制神经元活动强度的空间分布不均匀性,会发现神经元活动混沌程度随活动强度一样,从“浅层“向“深层“的神经元递减(此处,“层“仅是形象的说法,真实的微观尺度的神经群中不存在严格的分层结构,读者可以自行将“浅层“和“深层“替换为“上游“和“下游“进行理解)。当研究者对神经元活动强度进行标准化后(排除活动强度的空间分布不均对于混沌现象的影响),会发现相对“浅层“的神经元活动更具有规律性,而相对“深层“的神经元活动的混沌程度更高。

8540efce2ab190538d2537fda7309a6c.png

图5. KS熵及混沌现象在神经群中的空间分布

而后,研究者对动力学属性与信息编码和解码的关系进行了探索,得到了发现3和4。具体数据可见图 6。

  • 发现3

研究者发现特定的神经动力学可能导致信息编码和解码之间互相制约的关系。具体而言,当神经动力学的随机性(或混沌程度)较低时,信息编码和解码的效率以及质量会随着动力学随机性上升而上升。但是,当神经动力学的随机性超过特定阈值后,信息编码和解码的效率及质量就不再同向变化,前者依然随着动力学随机性上升而上升,后者则随动力学随机性的上升而下降。这意味着,对于动力学随机性相对大的神经元群,其编码和解码的性质之间存在权衡。研究者随后对这一现象给出了理论证明。

  • 发现4

研究者还发现了神经动力学与神经元对外界刺激的表征(neural representation)之间的关系。具体而言,相对“浅层“的神经元具备更稳定的动力学特性,它们更多负责对刺激分布的局部信息进行特异化编码和表征,而相对“深层“的神经元的动力学随机性更大,它们更多负责对刺激分布的全局信息进行非特异化(non-specific)编码和表征。

1d3e892f703503263bfb0a32414a1a86.png

图6. 神经活动的动力学属性对编码、解码及刺激表征的影响

5. 总结与讨论

在该研究中,研究者推导了刺激驱动的神经元集群动力学的随机动力学描述。基于随机动力学,研究者一方面借助KS熵和Lyapunov谱的数学关系对神经动力学的动力学不确定性和混沌进行刻画,另一方面直接基于概率框架给出了信息编码和解码属性的时变度量方法。结合理论推导和实验数据,研究者解析地探索神经活动的动力学和信息属性间的关系,并发现了4个基本性质。

发现1或对神经信号记录(neural signal recording)的研究具有一定启示。研究者已经发现时间采样率低的信号记录技术(例如fMRI)不能直接反映潜在的刺激驱动的神经活动[53]。在被这些低时间采样率的技术记录之前,短期的神经活动变化需要累积至其变化足够强烈和鲁棒[53],这伴随着神经活动信息的大量丢失[53-56]。对于这个问题,一种传统的解决思路是尽可能开发高时间分辨率的记录技术(例如多光子显微镜[67–69])。虽然发现1部分地支持这一思路,该发现也指出了获得鲁棒的神经活动信号趋势和对神经活动信息的保持是不可兼得的。一个高时间分辨率的记录技术能够尽可能降低对神经活动信息的丢失,但其记录的神经活动短期变化相较于低时间分辨率的技术,具有极高的动力学随机性及较弱的鲁棒性。所以,单纯提高记录技术的时间分辨率并不能彻底解决这个问题。

在对发现2的分析中,如果研究者选择不消除神经活动强度在空间分布上的不均匀性,会观测到神经元活动的混沌程度与神经元活动强度一样,随着神经元活动在神经群内的传播过程而逐渐递减。Diesmann曾经发现神经元活动在传播过程中存在一个吸引子[59]。在新近研究中[60],该吸引子被证实为是一个线性吸引子(line attractor)。这些研究表明神经动力学可变性会在足够长的传播过程中逐渐消失。研究者在更广义的随机图结构中证实了该现象(参考发现2)。而当研究者选择对神经活动强度进行标准化后,发现刺激驱动的神经动力学在越“浅层”的神经元上越稳定,在越“深层“的神经元上越混沌。这一现象与关于刺激驱动对混沌现象的抑制能力(stimulus drives suppress chaos)的著名发现[61]是一致的。研究者发现输入驱动和刺激诱发神经元协同的确能抑制混沌。随着神经元活动的传播,这种刺激与神经元间的协同逐渐减弱,并逐渐被网络动力学的混沌所掩盖。当然,这并不意味着神经元对于刺激的响应彻底变成了混沌而不可靠的。在真实的神经元群中,由神经元调谐特性(neural tuning properties)主导的规律性与由网络动力学主导的混沌是共存的。虽然神经元活动的规律性(regularity)经常被混沌打破,但神经元活动的混沌程度并不会持续地保持或上升[例如,见图 3(b)]。这些观测结果与已有研究对刺激驱动的神经活动的混沌程度与可靠性的关系的探索结果一致[62,63]。

发现3或许对认知功能的神经或皮层基础定位的研究[15,64,65]有潜在的启示。这些研究多侧重分析特定神经群、神经环路或皮层的信息加工特性。其分析首先以特定信号记录技术(例如,多光子显微镜[66,67]、多电极记录[68,69]和fMRI)对神经活动进行记录,再从信息编码[13,70]或解码[71–73]的角度对神经活动进行分析。研究者指出了这类研究存在的潜在风险——从编码或解码角度对信息加工效率进行直接或间接的度量可能会得到不一致甚至相反的结果(参考发现3)。例如,一方面,如果研究者从解码的角度进行间接分析,那在编码过程中真正高效的神经元或皮层可能因其较低的解码效率而被忽略。另一方面,在解码过程中相对高效的神经元或皮层常有许多不能被刺激解释的神经活动,这给分析带来了极大的噪音。这些潜在的风险或许会导致功能研究中的假阴性问题和可重复性问题[74]。

此外,该研究揭示了(1)在神经信号记录过程中得到鲁棒的信号趋势和保持神经活动信息间的矛盾以及(2)在记录的神经信号中编码和解码属性可能存在的制约关系(参考发现1和3)。虽然具有高时间分辨率的记录技术能够捕捉高频的神经活动变化,短期神经活动变化的高动力学随机性通常会阻碍研究者得到鲁棒的神经信号并且可能导致编码、解码分析结果的不一致。时间分辨率较低的记录技术不能捕捉高频的神经活动,但其能够记录动力学随机性相对较小的神经活动并在一定程度上避免编码、解码分析结果的分歧。所以,一个多时间分辨率的(multitemporal-resolution recording)神经信号记录体系[75–77]或许能兼具高时间分辨率和低时间分辨率的记录技术的优点,并在一定程度上克服两者的缺陷。

发现4或许对认知神经科学具有一定启示。研究者指出了“浅层“的神经元活动与刺激分布的局部信息更相关,而“深层“的神经元活动与对刺激分布全局信息的加工更相关(参考发现2和4)。在某种程度上,对于刺激分布全局信息的加工可以被理解为神经元在刺激响应过程中所具备的泛化能力。这种自发涌现的差异性指出了“浅层“神经元负责编码局部刺激信息,而“深层“神经元负责编码全局刺激信息的可能。这种自发形成的神经元间的分工体系或许在自下而上的(bottom-up)信息加工过程中具有重要的意义。

参考文献

[1] G. Collell and J. Fauquet, Brain activity and cognition: A connection from thermodynamics and information theory, Front. Psychol. 6, 818 (2015)

[2] P. Dayan and L. F. Abbott, Theoretical Neuroscience: Computational and Mathematical Modeling of Neural Systems (MIT Press, Cambridge, MA, 2001).

[3] A. S. Shah, S. L. Bressler, K. H. Knuth, M. Ding, A. D. Mehta, I. Ulbert, and C. E. Schroeder, Neural dynamics and the fundamental mechanisms of event-related brain potentials, Cerebal Cortex 14, 476 (2004).

[4] T. P. Vogels, K. Rajan, and L. F. Abbott, Neural network dynamics, Annu. Rev. Neurosci. 28, 357 (2005).

[5]  G. Deco and E. Hugues, Neural network mechanisms underlying stimulus driven variability reduction, PLoS Comput. Biol 8, e1002395 (2012).

[6] B. L. Foster, B. J. He, C. J. Honey, K. Jerbi, A. Maier, and Y. B. Saalmann, Spontaneous neural dynamics and multiscale network organization, Front. Syst. Neurosci. 10, 7 (2016)

[7]  R. F. Galán, On how network architecture determines the dominant patterns of spontaneous neural activity, PloS ONE 3, e2148 (2008).

[8]  S. Coombes, Large-scale neural dynamics: Simple and complex, NeuroImage 52, 731 (2010).

[9] D. R. Chialvo, Emergent complex neural dynamics, Nat. Phys. 6, 744 (2010).

[10] E. D. Lumer, G. M. Edelman, and G. Tononi, Neural dynamics in a model of the thalamocortical system. I. Layers, loops and the emergence of fast synchronous rhythms, Cerebral Cortex 7, 207 (1997).

[11] E. D. Lumer, G. M. Edelman, and G. Tononi, Neural dynamics in a model of the thalamocortical system. II. The role of neural synchrony tested through perturbations of spike timing, Cerebral Cortex 7, 228 (1997).

[12] M. Martinello, J. Hidalgo, A. Maritan, S. di Santo, D. Plenz, and M. A. Muñoz, Neutral Theory and Scale-Free Neural Dynamics, Phys. Rev. X 7, 041071 (2017).

[13] A. Borst and F. E. Theunissen, Information theory and neural coding, Nat. Neurosci. 2, 947 (1999).

[14] D. J. Amit, H. Gutfreund, and H. Sompolinsky, Information storage in neural networks with low levels of activity, Phys. Rev. A 35, 2293 (1987).

[15] D. Purves, R. Cabeza, S. A. Huettel, K. S. LaBar, M. L. Platt, M. G. Woldorff, and E. M. Brannon, Cognitive Neuroscience (Sinauer Associates, Sunderland, MA, 2008)

[16] D. A. Butts, C. Weng, J. Jin, C.-I. Yeh, N. A. Lesica, J.-M. Alonso, and G. B. Stanley, Temporal precision in the neural code and the timescales of natural vision, Nature (London) 449, 92 (2007).

[17]  G. Laurent and H. Davidowitz, Encoding of olfactory information with oscillating neural assemblies, Science 265, 1872 (1994).

[18] B. B. Averbeck, P. E. Latham, and A. Pouget, Neural correlations, population coding and computation, Nat. Rev. Neurosci. 7, 358 (2006).

[19] E. Harth, T. Csermely, B. Beek, and R. Lindsay, Brain functions and neural dynamics, J. Theor. Biol. 26, 93 (1970).

[20] G. B. Ermentrout, R. F. Galán, and N. N. Urban, Relating Neural Dynamics to Neural Coding, Phys. Rev. Lett. 99, 248103 (2007).

[21] J. D. Murray, A. Bernacchia, N. A. Roy, C. Constantinidis, R. Romo, and X.-J. Wang, Stable population coding for working memory coexists with heterogeneous neural dynamics in prefrontal cortex, Proc. Natl. Acad. Sci. USA 114, 394 (2017).

[22] B. Cessac, H. Paugam-Moisy, and T. Viéville, Overview of facts and issues about neural coding by spikes, J. Physiol. Paris 104, 5 (2010).

[23] N. Brenner, S. P. Strong, R. Koberle, W. Bialek, and R. R. d. R. v. Steveninck, Synergy in a neural code, Neural Comput. 12, 1531 (2000).

[24] C. E. Schroeder, D. A. Wilson, T. Radman, H. Scharfman, and P. Lakatos, Dynamics of active sensing and perceptual selection, Curr. Opin. Neurobiol. 20, 172 (2010). 

[25] W. E. Skaggs, B. L. McNaughton, and K. M. Gothard, An information-theoretic approach to deciphering the hippocampal code, in Advances in Neural Information Processing Systems, edited by J. Cowan, G. Tesauro, and J. Alspector (Morgan Kaufmann, MA, 1993), pp. 1030–1037.

[26] R. Linsker, Perceptual neural organization: Some approaches based on network models and information theory, Annu. Rev. Neurosci. 13, 257 (1990).

[27] A. Katok and B. Hasselblatt, Introduction to the Modern Theory of Dynamical Systems (Cambridge University Press, New York, 1997), Vol. 54.

[28] I. Aleksandr and A. Khinchin, Mathematical Foundations of Information Theory (Dover Publications Inc., New York, 1957), Vol. 54.

[29] L. Paninski, E. P. Simoncelli, and J. W. Pillow, Maximum likelihood estimation of a stochastic integrate-and-fire neural model, in Advances in Neural Information Processing Systems, edited by L. Saul, Y. Weiss, and L. Bottou (MIT Press, Cambridge, 2004), pp. 1311–1318.

[30] D. Heeger, Poisson model of spike generation (unpublished).

[31] R. Barbieri, M. C. Quirk, L. M. Frank, M. A. Wilson, and E. N. Brown, Construction and analysis of non-Poisson stimulusresponse models of neural spiking activity, J. Neurosci. Methods 105, 25 (2001).

[32] A. N. Burkitt, A review of the integrate-and-fire neuron model: II. Inhomogeneous synaptic input and network properties, Biol. Cybern. 95, 97 (2006). 

[33] A. L. Hodgkin and A. F. Huxley, A quantitative description of membrane current and its application to conduction and excitation in nerve, J. Physiol. 117, 500 (1952). 

[34] R. B. Stein, A theoretical analysis of neuronal variability, Biophys. J. 5, 173 (1965). 

[35] E. M. Izhikevich, Simple model of spiking neurons, IEEE Trans. Neural Netw, 14, 1569 (2003). 

[36] W. Gerstner and W. M. Kistler, Spiking Neuron Models: Single Neurons, Populations, Plasticity (Cambridge University Press, New York, NY, 2002).

[37] M. Tsodyks, K. Pawelzik, and H. Markram, Neural networks with dynamic synapses, Neural Comput. 10, 821 (1998).

[38] S. Grossberg and E. Mingolla, Neural dynamics of perceptual grouping: Textures, boundaries, and emergent segmentations, in The Adaptive Brain II, edited by S. Grossberg (Elsevier, 1987), pp. 143–210.

[39] S. Grossberg and M. Kuperstein, Neural Dynamics of Adaptive Sensory-Motor Control: Ballistic Eye Movements (Elsevier, Amsterdam, Netherlands, 2011).

[40] J. D. Seelig and V. Jayaraman, Neural dynamics for landmark orientation and angular path integration, Nature (London) 521, 186 (2015).

[41] L. Buesing, J. Bill, B. Nessler, and W. Maass, Neural dynamics as sampling: A model for stochastic computation in recurrent networks of spiking neurons, PLoS Comput. Biol. 7, e1002211 (2011).

[42] A. V. Herz, T. Gollisch, C. K. Machens, and D. Jaeger, Modeling single-neuron dynamics and computations: A balance of detail and abstraction, Science 314, 80 (2006).

[43] G. Dror and M. Tsodyks, Chaos in neural networks with dynamic synapses, Neurocomputing 32, 365 (2000).

[44] S.-I. Amari, Dynamics of pattern formation in lateralinhibition type neural fields, Biol. Cybern. 27, 77 (1977).

[45] K. Kishimoto and S.-I. Amari, Existence and stability of local excitations in homogeneous neural fields, J. Math. Biol. 7, 303 (1979). 

[46] N. P. Rougier, Dynamic neural field with local inhibition, Biol. Cybern. 94, 169 (2006).

[47] A. Hutt, M. Bestehorn, and T. Wennekers, Pattern formation in intracortical neuronal fields, Netw. Comput. Neural Syst. 14, 351 (2003).

[48] E. Montbrió, D. Pazó, and A. Roxin, Macroscopic Description for Networks of Spiking Neurons, Phys. Rev. X 5, 021028 (2015).

[49] R. Engelken, F. Wolf, and L. F. Abbott, Lyapunov spectra of chaotic recurrent neural networks, arXiv:2006.02427.

[50] H. Sompolinsky, A. Crisanti, and H.-J. Sommers, Chaos in Random Neural Networks, Phys. Rev. Lett. 61, 259 (1988)

[51] “A meeting with Enrico Fermi“ in Nature 427 (22 January 2004) p. 297

[52] Tian Y, Li G, Sun P. Bridging the information and dynamics attributes of neural activities[J]. Physical Review Research, 2021, 3(4): 043085.

[53] N. K. Logothetis, J. Pauls, M. Augath, T. Trinath, and A. Oeltermann, Neurophysiological investigation of the basis of the FMRI signal, Nature (London) 412, 150 (2001).

[54] K. Lundengård, in Mechanistic Modelling—A BOLD Response to the fMRI Information Loss Problem, Linköping University Medical Dissertations (Linköping University Electronic Press, Linköping, Sweden, 2017), Vol. 1591.

[55] A. Ekstrom, How and when the FMRI bold signal relates to underlying neural activity: The danger in dissociation, Brain Res. Rev. 62, 233 (2010). [62] K. D. Singh, Which neural activity do you mean? FMRI, MEG, oscillations and neurotransmitters, Neuroimage 62, 1121 (2012).

[56] B. Li, C. Wu, M. Wang, K. Charan, and C. Xu, An adaptive excitation source for high-speed multiphoton microscopy, Nature Methods 17, 163 (2020).

[57] M. J. Levene, D. A. Dombeck, K. A. Kasischke, R. P. Molloy, and W. W. Webb, In vivo multiphoton microscopy of deep brain tissue, J. Neurophysiol. 91, 1908 (2004). [58] F. Helmchen and W. Denk, New developments in multiphoton microscopy, Curr. Opin. Neurobiol. 12, 593 (2002).

[59] M. Diesmann, M.-O. Gewaltig, and A. Aertsen, Stable propagation of synchronous spiking in cortical neural networks, Nature (London) 402, 529 (1999). 

[60] Z. Xiao, J. Zhang, A. T. Sornborger, and L. Tao, Cusps enable line attractors for neural computation, Phys. Rev. E 96, 052308 (2017).

[61] L. Molgedey, J. Schuchhardt, and H. G. Schuster, Suppressing Chaos in Neural Networks by Noise, Phys. Rev. Lett. 69, 3717 (1992).

[62] G. Lajoie, K. K. Lin, and E. Shea-Brown, Chaos and reliability in balanced spiking networks with temporal drive, Phys. Rev. E 87, 052901 (2013).

[63] G. Lajoie, J.-P. Thivierge, and E. Shea-Brown, Structured chaos shapes spike-response noise entropy in balanced neural networks, Front. Comput. Neurosci. 8, 123 (2014).

[64] R. E. Passingham, K. E. Stephan, and R. Kötter, The anatomical basis of functional localization in the cortex, Nat. Rev. Neurosci. 3, 606 (2002).

[65] A. Gholipour, N. Kehtarnavaz, R. Briggs, M. Devous, and K. Gopinath, Brain functional localization: A survey of image registration techniques, IEEE Trans. Med. Imaging 26, 427 (2007).

[66] G. D. Reddy, K. Kelleher, R. Fink, and P. Saggau, Threedimensional random access multiphoton microscopy for functional imaging of neuronal activity, Nat. Neurosci. 11, 713 (2008).

[67] K. W. Dunn and T. A. Sutton, Functional studies in living animals using multiphoton microscopy, ILAR J. 49, 66 (2008).

[68] I. Ulbert, E. Halgren, G. Heit, and G. Karmos, Multiple microelectrode-recording system for human intracortical applications, J. Neurosci. Methods 106, 69 (2001). [69] D. D. Cox, A. M. Papanastassiou, D. Oreper, B. B. Andken, and J. J. DiCarlo, High-resolution three-dimensional microelectrode brain mapping using stereo microfocal x-ray imaging, J. Neurophysiol. 100, 2966 (2008).

[70] I. Nemenman, G. D. Lewen, W. Bialek, and R. R. D. R. Van Steveninck, Neural coding of natural stimuli: Information at sub-millisecond resolution, PLoS Comput. Biol. 4, e1000025 (2008).

[71] S. Wu, S.-i. Amari, and H. Nakahara, Population coding and decoding in a neural field: A computational study, Neural Comput. 14, 999 (2002).

[72] R. Q. Quiroga and S. Panzeri, Extracting information from neuronal populations: Information theory and decoding approaches, Nat. Rev. Neurosci. 10, 173 (2009). 

[73] T. Toyoizumi, K. Aihara, and S.-I. Amari, Fisher Information for Spike-Based Population Decoding, Phys. Rev. Lett. 97, 098102 (2006).

[74] M. Brett, I. S. Johnsrude, and A. M. Owen, The problem of functional localization in the human brain, Nat. Rev. Neurosci. 3, 243 (2002).

[75] S. Qin and Z. Ji, Multi-Resolution Time-Frequency Analysis for Detection of Rhythms of EEG Signals, in 3rd IEEE Signal Processing Education Workshop (IEEE, 2004), pp. 338–341.

[76] Y. Li, H.-L. Wei, S. A. Billings, and P. Sarrigiannis, Time-varying model identification for time–frequency feature extraction from EEG data, J. Neurosci. Methods 196, 151 (2011).

[77] K. Indiradevi, E. Elias, P. Sathidevi, S. D. Nayak, and K. Radhakrishnan, A multi-level wavelet approach for automatic detection of epileptic spikes in the electroencephalogram, Comput. Biol. Med. 38, 805 (2008).

(参考文献可上下滑动查看)

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

5899279b6779ccb2d4568d5e01fe8c2f.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/483208.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

操作系统——内存

文章目录1.内存的定义2.从写程序到程序运行3.逻辑地址和物理地址3.1 逻辑地址/物理地址的定义3.2 逻辑地址到物理地址的转换3.2.1 绝对装入3.2.2 静态重定位3.2.3 动态重定位4.链接的方式4.1 静态链接4.2 装入时动态链接4.3 运行时动态链接5.内存管理5.1 内存保护5.2 地址转换5…

德克萨斯AM大学的一项新技术可以让我们通过触摸屏「感受」物体

来源:新智元德克萨斯A&M大学的一项新技术可以让我们通过触摸屏「感受」物体,这项新技术将「定义」下一代手指与设备的交互方式,进一步发展则有希望超越目前触摸屏对人们触摸的匮乏感知和反应。该研究最近发表在《高级材料》(A…

Git的工作流程

git的工作流程为: 克隆Git资源作为工作目录 在克隆的资源上添加或者修改文件 如果别人修改了,你可以更新资源 在提交前查看修改 提交修改 在修改完成后,如果发现错误,可以撤回提交并再次修改并提交 推送到服务器 转载于:https://www.cnblogs.com/qingmuchuanqi48/p/10988263.ht…

操作系统——文件基本概念

文章目录1.文件管理概念1.1 文件的属性1.2 文件内部的数据是如何组织的1.3 文件之间如何被组织起来1.4 操作系统向上提供的基本功能1.5 文件如何存储在外存中1.文件管理概念 1.1 文件的属性 1.2 文件内部的数据是如何组织的 1.3 文件之间如何被组织起来 1.4 操作系统向上提供的…

浅谈多重背包及其优化

模板来源&#xff1a;codevs 5429 根据背包问题的相关状态转移方程&#xff0c;我们不难写出朴素的算法 1 #include <iostream>2 #include <cstdio>3 #include <cstring>4 #include <algorithm>5 using namespace std;6 inline int read() {7 int …

人脑计划:大脑研究如何对超级计算提出新要求

来源&#xff1a;ScienceAI编译&#xff1a;绿萝「了解大脑的所有复杂性需要从多个尺度——从基因组学、细胞和突触到整个器官水平的洞察力。这意味着处理大量数据&#xff0c;超级计算正在成为解决大脑问题的不可或缺的工具。」人类大脑项目 (HBP) 科学主任、杜塞尔多夫大学和…

数据结构与算法——递归、回溯与分治

文章目录1.预备知识1.1 递归1.2 回溯1.3 位运算2.子集2.1 题目描述2.2 解题思路——回溯递归法2.3 C实现2.4 解题思路——位运算法2.5 位运算实现3.子集 II3.1 题目描述3.2 解题思路3.3 回溯递归法——C实现3.4 位运算——C实现4.组合总和 II4.1 题目描述4.2 解题思路4.3 C实现…

MongoDB安装启动教程

MongoDB安装启动教程 简易教程&#xff1a;鉴于第一次大家使用分布式数据库&#xff0c;提供一个简易教程&#xff08;也可看老师的PPT或者视频&#xff09; 1.点击安装包&#xff08;老师给的&#xff09;&#xff0c;安装目录不要更改&#xff0c;否则后面配置需要改&#xf…

机器能思考吗?

来源&#xff1a;人机与认知实验室机器有智能吗&#xff1f;机器会理解吗&#xff1f;机器能思考吗&#xff1f;从十七世纪到今&#xff0c;每一次机器功能的重大突破&#xff0c;这问题都被翻出来问一遍&#xff0c;只是否定它变得愈来愈困难了。Alpha Go与李世石的围棋赛尘埃…

数据结构与算法——二叉树与图

文章目录1.预备知识1.1 二叉树定义1.2 二叉树的构造2.路径总和 II2.1 题目描述2.2 算法思路2.3 C实现3.二叉树的最近公共祖先3.1 题目描述3.2 解题思路3.3 C实现4.二叉树展开为链表4.1 题目描述4.2 思考4.3 C实现4.4 解法二4.5 C实现5.二叉树的右视图5.1 预备知识5.2 题目描述5…

Nature评论:机器学习的物理启示录——隔壁的另一条机遇之道

来源&#xff1a;AI科技评论作者&#xff1a;Don编辑&#xff1a;青暮老话说&#xff1a;隔行不取利。但时过境迁&#xff0c;目前不管是娱乐圈还是学术界&#xff0c;跨界方可大红大紫。在娱乐圈&#xff0c;相声演员客串脱口秀&#xff0c;歌手跨界演员&#xff0c;赚的钵满盆…

操作系统——文件的逻辑结构

文章目录1.文件的逻辑结构的概念1.1 按照逻辑结构的文件分类1.2 无结构文件和有结构文件的区别2 顺序文件3 索引文件4.索引顺序表1.文件的逻辑结构的概念 1.1 按照逻辑结构的文件分类 1.2 无结构文件和有结构文件的区别 2 顺序文件 3 索引文件 4.索引顺序表

操作系统——文件目录

文章目录1.文件目录知识点2. 文件分配方式3.文件的存储空间管理4.文件的基本操作5.文件共享6.文件保护7.文件系统的层次结构1.文件目录知识点 2. 文件分配方式 3.文件的存储空间管理 4.文件的基本操作 5.文件共享 6.文件保护 7.文件系统的层次结构

我们不知道答案的125个科学问题(16)群体合作行为的演化

来源&#xff1a;张林科学网博客链接地址&#xff1a;http://blog.sciencenet.cn/blog-318012-1292142.html题记&#xff1a;离Science杂志提出125个问题到今天已经过去了16个年头&#xff0c;然而我这个125个问题的系列解读仅仅进行到第16个&#xff0c;想必这125个问题自己也…

Nature:大脑空间导航研究五十年

来源&#xff1a;集智俱乐部作者&#xff1a;Isabel I. C. Low & Lisa M. Giocomo译者&#xff1a;赵雨亭 审校&#xff1a;张澳 编辑&#xff1a;邓一雪 导语老马识途的故事被人们所熟知&#xff0c;但其识途的神经机制却尚待研究。1971年&#xff0c;研究人员首次发现&am…

操作系统——磁盘

文章目录1.磁盘的结构2.磁盘调度算法3.减少磁盘延时时间的方法4.磁盘管理1.磁盘的结构 2.磁盘调度算法 3.减少磁盘延时时间的方法 4.磁盘管理

建网站如何选择好用的网站源码程序

很多新手朋友第一次建网站时候&#xff0c;如何选择一款适合的网站源码是比较困惑的问题&#xff0c;选择一款好的网站源码可以节约大量时间和金钱&#xff0c;但是由于网站源码参差不齐&#xff0c;免费的&#xff0c;收费的&#xff0c;淘宝几元钱购买的&#xff0c;几万块钱…

操作系统——设备管理

文章目录1.I/O设备的基本概念与分类2.I/O控制器3.I/O控制方式4.I/O软件层次结构5.I/O核心子系统6.假脱机技术7.设备的分配和回收8.缓冲区管理1.I/O设备的基本概念与分类 2.I/O控制器 3.I/O控制方式 4.I/O软件层次结构 5.I/O核心子系统 6.假脱机技术 7.设备的分配和回收 8.缓冲区…

95页重磅报告:全面预测未来5年趋势

来源&#xff1a;中产财富分水岭将成为未来5年中国互联网的关键词&#xff0c;从浅水区向深水区过渡&#xff0c;引发竞争格局的强弱式转化。分水岭期不存在直道竞争&#xff0c;冷静和变化成为主旋律。版权申明&#xff1a;内容来源网络&#xff0c;版权归原创者所有。除非无法…

新发现为类脑计算机开辟了道路

来源&#xff1a;ScienceAI编辑&#xff1a;萝卜皮大型自旋霍尔纳米振荡器&#xff08;SHNO&#xff09;阵列的同步&#xff0c;是实现超快非常规计算的一种有吸引力的方法。然而&#xff0c;与阵列接口、调整其单个振荡器和提供内置存储器单元仍然存在巨大的难题。瑞典哥德堡大…