查看原文
其他

综述 | 从认知脑的计算模拟到类脑人工智能

神经现实 2023-05-26

The following article is from 智能的本质与未来 Author ​曾毅、张倩等


微信又双叒叕改版了,不是常读或星标的公众号,图文推送不再显示封面啦。为获得更好的体验,以及不错过任何一条精美推送,跪求喜欢我们的小伙伴标一个“星标”,这样才能及时收到我们的优质内容。


摘要 /Abstract

让人类的心智在计算系统中重现,对大脑的模拟是其中的关键。目前脑与认知科学的进展虽然尚不足以支持对整个人脑及其连接进行精细计算模拟,但是受脑神经机制和认知机制启发,从微观、介观和宏观水平对大脑进行计算建模仍然对于推进从科学上理解脑的机制机理以及促进类脑人工智能意义深远。构建兼具生物合理性和计算高效性的神经网络模型是认知脑的计算模拟与类脑智能研究面临的重要挑战。本文将从回顾认知体系结构、计算神经科学及类脑人工智能的历史脉络、发展进程的视角切入,介绍大规模脑模拟的全球布局与进展以及类脑脉冲神经网络平台的研究,最后展望未来脑模拟与类脑智能研究的发展方向。


关键词:认知体系结构;计算神经科学;类脑人工智能;跨尺度脑模拟;类脑脉冲神经网络

中图分类号:TP391;TP18 文献标志码:A   

文章编号:2096-5036(2022)06-0000-00

DOI:10.16453/j.cnki.ISSN2096-5036.2022.06.000



作者:曾毅, 张倩, 赵菲菲, 赵东城, 李金东, 申国斌, 毕韦达

期刊:人工智能 (AI View). 2022,(06)

DOI:10.16453/j.2096-5036.2022.06.003

微信版内容为文章接收时编辑前的草稿,正式发表版请参考:

https://aiview.cbpt.cnki.net/WKD/WebPublication/paperDigest.aspx?paperID=09a4be04-81d1-43a1-8265-ae0ac5a2bf0c


引言

对人类认知和智能探索的核心是探究人脑与心智的工作机制,并通过计算建模模拟人类心智,在计算系统中重现人类智能。以此为主要愿景和出发点,逐渐涌现出认知体系结构、计算神经科学,以及人工智能三个相互关联的科学领域。认知体系结构采用自顶向下的方式发展揭示人类认知的信息加工机制,计算神经科学采用自底向上的方式对脑结构与机制进行精细化建模。这为实现真正意义的人工智能提供了神经信息处理机制方面的重要线索。只有受脑与心智启发构建的智能模型才有可能实现科学意义上的人工智能。因此认知体系结构、计算神经科学、人工智能的发展需更深入地汇聚、融合与相互支撑。三者较为显然的交汇便是对认知脑的计算模拟。


认知体系结构-

脑认知功能的宏观模拟

认知研究与计算科学的深度融合使我们可以通过计算建模去模拟人类心智,构建认知体系结构,在计算系统当中重现人类的智能。图灵奖获得者Newell在其最后的演讲当中提出他终其学术生涯希望回答的科学问题“人类的心智如何能够在物理世界重现”及与其合作者毕生的学术贡献发挥了开创性的作用[1]。


认知体系结构的研究以信息加工为基础构建人类认知模型,不仅对于揭示认知机制与本质至关重要,更是人工智能发展的基石。认知体系结构的研究始于20世纪50年代,目的在于创建可以进行跨领域推理同时又能适应新环境的计算系统[2]。


在认知体系结构方面的尝试有数百种之多,涵盖了感知、注意力、学习、记忆、推理等众多方面。从框架的结构设计分类主要包括以ACT-R[3]为代表的自顶向下认知总体结构计算模型,以Leabra[4]为代表的自底向上认知总体结构计算模型,以及以SAL[5]为代表的顶层与底层相结合的认知总体结构计算模型。即使在单一架构中仅实现一个真正意义的认知功能,也是一项任务繁重的工程。因此,目前只有一小部分架构试图挑战更为通用的认知体系结构(如ACT-R[3]、Soar[6]、BrainCog[7]、NARS[8]、OpenCogPrime[9])。其他架构则专注某一特定认知功能,这将为建立统一的认知理论带来较大挑战。


ACT-R是由Anderson主导的致力于回答人类心智如何在物理世界中实现的认知体系结构。ACT-R后期的发展最鲜明的特点之一是它初步实现了对脑区的建模,模块在行为层面模拟对应的脑区功能。它涵盖了感知、决策、语言、运动等广泛的认知功能,具备坚实的认知心理学依据。但是,ACT-R采用生产式实现认知功能,本质上还是一个规则系统,认知功能之间的协同还不是自组织。由于模型没有采用神经网络实现,因此其结构与运行机理与人脑相比还存重要区别。


- Blaster Studio -

此外,一些有代表性的哲学架构还包括LIDA[10]、Pandemonium Theory[11]、Society of Mind[12]、CogAff[13],以及全局工作空间理论(Global Workspace Theory,GWT)[14]。GWT框架是由Baars提出的意识模型。该模型将大脑划分为利用长距离进行连接与通讯的多个执行不同功能的专用模块,这些模块并行运行。在全局工作空间理论中,注意力机制是感知、认知和行动的核心。各个专用模块在整个全局工作空间范围内争夺注意力,在全局工作空间中对新事物进行分析以获得最佳结果,而意识正是在这个过程中得以产生。该理论的提出一开始关注于认知层面,之后发展到神经元层面。总体而言,GWT框架关注某种精神状态凭借意识在生物体的认知中所起的作用[15]。


从以上的例子,我们可以看出,认知体系结构的发展对于人工智能本可以起到更多的启发作用,然而作为一个学科的人工智能以往的发展并没有实质上极大地受到认知体结构的推动。认知体系结构大部分情况下还是认知心理学的研究人员在使用,认知心理学和认知科学的研究人员通过规则系统、神经网络模型,构建认知体系结构,主要用于心理学计算建模。仅有少部分人工智能的研究人员使用这些系统,采用机器人、无人车等载体进行人工智能验证。未来认知体系结构研究的内涵和外延既将对人工智能产生深远影响,也会受益于人工智能的科学进展。


计算神经科学-

跨尺度的脑计算建模

计算神经科学对神经系统多尺度的神经机制进行理论建模、数学分析、计算机模拟,进而实现从计算的角度理解脑。早在计算神经科学诞生之初,已经存在一些对单个神经元记录和计算建模的探索。


1907年,Lapicque提出了积分放电神经元模型[16],描述了细胞膜电压随着输入电流的累积变化关系,膜电压一旦达到阈值,神经元就会产生动作电位并重置。1952年,Hodgkin与Huxley利用电压钳测得乌贼轴突的电位数据,描述了一个由电压门控通道指导的基于电导的Hodgkin–Huxley(H-H)模型[17],首次通过非线性微分方程定量解释了乌贼巨轴突中动作电位的产生和传播的离子机制。H-H模型关注的是神经元的局部电位变化,Rall于1957年进一步提出了电缆模型(Cable Theory)[18]解释电信号在神经元的轴突和树突上的传导过程。在20世纪80年代,显微记录技术的进步允许神经元模型考虑体外实验获得的离子通道和受体的细节[19]。此后,随着神经元模型在计算建模方面的应用,Izhikevich简化了H-H模型,提出了Izhikevich神经元模型[20]。除以上常见模型外,在细胞水平上,Traub等根据细胞内记录的数据为海马体中的特定神经元类型,构建了多房室H-H模型[21]。Wang等提出了海马和新皮层结构中的快速峰值中间神经元模型,称为Wang-Bzsaki(WB)模型[22]。在神经元树突连接水平上,Poirazi等提出了由二次方程描述的非线性积分树突神经元,与具有线性积分树突的神经元相比,该神经元具有更高的区分不同类别模式的能力[23]。受此启发,提出了皮层锥体神经元增强版本的树突模型[24]、基于树突电导调节模型[25]。


在单个神经元电活动记录和计算建模的基础之上,进一步衍生出了对神经元群的活动动态性建模的工作。Wilson-Cowan(WC)模型[26]从宏观尺度对兴奋性和抑制性神经元群体之间动态相互作用所产生的震荡活动现象进行了描述。Kuramoto模型[27]提供了一种描述大量耦合振子同步行为的数学模型,并被用于研究大规模宏观脑动力学,能够很好地拟合神经影像学数据[28]。自2005年发现网格细胞后,振荡干涉模型[29]和吸引子网络模型[30]被提出来解释空间重复发射模式的形成以及将这些信号转换为海马体下游一个突触的信号。在感觉系统对外界信息编码和表征方面,Hubel和Wiesel在猫的初级视觉皮层中记录到了具有方向选择性感受野的神经元[31],发现了初级视皮层对视觉刺激中不同成分的选择性编码,并基于猫上的实验数据提出了简单细胞和复杂细胞的概念[32]。HMAX模型[33]基于此设计了多层网络模型,并实现了物体识别任务。在猕猴上的实验数据表明,该模型很好地解释了下颞叶皮层神经元的活动模式。


在突触可塑性方面,1949年,Hebb提出的赫布理论[34](Hebbian theory),描述了突触前后神经元持续重复活动可以增加突触传递效能的突触可塑性法则。毕国强和蒲慕明等一系列学者的努力共同发现并建立相关理论,即突触前后神经元的活跃时间的先后顺序对于突触可塑性很重要,并总结了时序依赖的突触可塑性法则(Spike-Timing-Dependent Plasticity)[35]。


- Martin David -

计算神经科学的研究还包括在宏观尺度的多脑区协同计算模型的研究,以模拟大脑的行为和机制。Izhikevich和Edelman提出了一个基于几种哺乳动物物种实验数据的大规模丘脑皮层系统模型[36]。该模型模拟了由全局白质到神经元多尺度的哺乳动物大脑——它基于人脑的丘脑和皮层解剖结构,包含许多丘脑核以及皮层的6层微回路,并使用了22种不同种类的基本神经元。因此,当模型被激活时,它表现出的行为特征与正常的大脑活动非常相似,这些特征不是预设的,而是由于解剖学和动态过程之间的相互作用而自发产生的。


美国国立卫生研究院(NIH)Barry Horwit团队强调执行认知任务的神经子网的动态组合,特别是那些与视听和语言相关的任务。通过采用动态因果建模,研究大规模神经模型的动态因果行为[37],实现了推断连通性[32,38],测量区域血氧合依赖性(BOLD)信号[39]等功能。


2012年,加拿大滑铁卢大学的研究人员构建的SPAUN[40]由250万个神经元组成,这些神经元被分割成大脑中的不同系统,包括前额皮层、基底核和丘脑等。SPAUN可以执行多项简单的认知任务,例如图像识别、工作记忆、问答、强化学习、推理等。它通过一个类似摄像头的装置观察,并可指挥机械臂进行书写等动作。SPAUN是首个能够模拟大脑利用不同脑区协同展示多个认知功能的模型,但还存在明显的提升空间。例如SPAUN的感知区域全部用深度学习模型代替,没有真正采用脑区去模拟;针对不同的认知任务绘制不同的工作流,不能自主决策任务的类型,不能对任务进行自主建模;脑区之间的连接是逻辑连接,没有真正采用生物脑的约束,没有通过借助脑区之间的连接、脑的工作机制,提升智能水平。 


计算神经科学从单个神经元、神经元群、学习法则、多脑区协同模型等多个尺度展开了对脑结构和功能的模拟,以及预测网络的连接。通过对神经科学实验产生的数据进行计算建模,能够复现部分现象和解释部分计算机制。但计算神经科学的研究在认知行为的涌现方面仍存在欠缺,在启发人工智能,解决人工智能领域的关键问题、实现类生物水平的认知功能方面还需人工智能领域的学者予以足够重视。


类脑人工智能-结构机制类脑

与认知功能类人的融合计算

人脑是一个非常复杂的非线性系统,这些庞大的神经元和突触协同快速并行地完成各种特定的计算任务,实现了复杂、自主而强大的认知功能。神经科学的发展为设计人工智能新的算法和架构提供了启发,构建像人脑一样自主学习的通用智能系统一直是人工智能发展的目标。


1943年,McCulloch和Pitts模拟生物神经元的功能创建了人工神经元模型[41],但是这种通过对突触前信息加权求和模拟生物神经元的方式过于简化了生物神经元的功能。随着对于生物神经元的深入研究,利用脉冲神经元模拟生物神经元的膜电势累积,以及脉冲发放过程而诞生的脉冲神经网络被誉为第三代人工神经网络[42]。进一步,考虑到生物神经元的信息处理能力,文献[43]考虑利用一个多层的神经网络模拟单个生物神经元的复杂度。


除了对神经元的模拟之外,部分人工智能学者一直想理解人脑的学习方式,并尝试用各种方式模拟人类的学习。反向传播算法[44]通过误差的逐层传播使得大规模神经网络的训练成为可能,该算法可以充分利用神经网络的多层结构,学习与给定任务相关的特征,但是在细节上与人脑的信息传递方式不一致。首先,反向传播算法需要反馈通路与前馈通路的权值对称,而这在生物系统中还没有找到明显证据,也称梯度转置问题[45]。其次,需要对相应前馈通路中的节点进行精确的求导,而人脑中很难得到节点的精确导数。最后,误差的逐层传播很容易导致梯度消失或者爆炸的问题。


- Blaster Studio -

于是,有很多突触可塑性的算法被用来模拟人脑的学习方式。第一类是对比赫布学习(Contrastive Hebbian Learning,CHL)[46-49],平衡传播算法(Equillibrium Propagation,Equiprop)[50-52]与CHL算法类似。这些基于能量的模型都有两个阶段,第一阶段通过最小化能量函数对网络进行隐式的前向传播,第二阶段通过引入监督信号,对网络进行隐式的反向传播,最终利用两个阶段的信息对网络权重进行更新。第二类是随机反馈算法(Random Feedback Alignment,RFA)[45]。RFA算法利用一个固定的随机矩阵代替反向传播算法中前向传播突触权重的转置,使得网络能够高速地收敛到最优解。直接随机反馈(Direct Feedback Alignment,DFA)[53]在此基础上构建隐层和输出层的直接连接传递误差信号。第三类是目标传播算法(Target Propagation,TP)。差分目标传播(Difference Target Propagation,DTP)[54]通过引入反馈连接,每个隐层的目标通过反馈连接传递,从而避免了权重转置问题。误差驱动的局部表征对齐算法(LRA-E)[55]通过局部误差信号计算局部的目标,利用随机的反馈连接计算传递误差。


目前,绝大多的深度神经网络的结构本质上都是受到了大脑层次化信息处理的启发。卷积神经网络主要由卷积层、池化层等一系列基本单元组成,从低层到高层的感受野逐步增大,通过对卷积层的可视化发现,不同的卷积层分别和大脑皮层V1、V2,以及IT区域对应[56]。进一步,文献[57]通过引入循环机制,利用带门控机制的循环神经网络模拟皮层微环路。分层时序模型(Hierarchical Temporal Memory,HTM)[58]通过模拟大脑皮层的六层组织的信息传递方式,与人脑的信息处理方式更为接近。除了对于大脑的层级信息处理方式进行模拟之外,还存在大量的工作对于大脑不同脑区的功能模拟。Braver等[59]利用循环神经网络建模前额叶皮层的短期记忆以及抑制功能;Wang等[60]利用循环神经网络,将前额叶皮层建模为一个独立运作的元强化学习系统。Hafner等[61]使用循环神经网络模拟皮层,同时引入丘脑的中央路由机制,使得模块可以在多个时间共享特征,与标准循环神经网络相比,提升了网络的性能。CTNN[62]以一个编码解码器的形式模拟皮层,编码层表现皮层对于物体的识别能力,解码层表现出对于物体的重构能力,通过丘脑的生物学行为启发,设置计算阈值,大大减小了计算的能耗。


为了实现认知脑的模拟,专用硬件方面的进展期望能够在定制硬件的助力下,减少对复杂神经元特性计算的代价,同时提高对大规模脑网络模型的仿真速度。研究大致分为两个方向。一个方向是通过不同的硬件架构,模拟更多的神经元数目和突触连接数目。该方向的研究通常使用较为简单的神经元模型,部分研究采用众核的架构,每个内核支持一定数目的神经元和突触连接,内核与内核之间使用片上网络总线进行通信,通过大量的内核实现大规模的神经元的仿真,如IBM 的TrueNorth[63]、Intel 的Loihi[64]和Spinnaker[65]。另一个方向是期望更加精细的模拟神经元的复杂特性以及学习机制,如Izhikevich神经元[66]和AdEx神经元[67]、P-STDP[68]、T-STDP[69]。


人工智能作为一个独立的学科发展以后,便致力于行为建模逼近并超越人类。但是,数据驱动的发展使其到达了一个瓶颈,因此人工智能的研究者们逐渐开始探索脑机制,以试图发展类脑人工智能。这就需要对认知体系结构和计算神经科学充分的借鉴和融合。


大规模脑模拟的

全球布局与进展

脑与神经科学的发展、未来信息技术(特别是人工智能)的发展都为计算模拟人脑的研究提出了迫切需求,近10年来全球各个科学领衔的国家在脑模拟研究上都进行了大规模布局。2013年启动的为期10年的欧盟脑计划[70](Human Brain Project,HBP)原本的科学目标旨在利用超级计算机构建人脑模型,研究和揭示人脑是如何工作的。近年来,逐渐侧重于开发信息和通信技术平台,研究神经信息学、大脑模拟、高性能计算、神经形态计算和神经机器人等。HBP建立了一个支持公开访问的数字研究基础设施“电子脑”(EBRAINS),服务于脑科学数据和知识、三维图谱、脑模拟、神经形态计算和神经机器人等脑科学研究。


在脑图谱方面,基于大脑组织的细胞结构、纤维结构和化学结构,以及功能、连接等,HBP开发了一个多层次的人脑图谱[71]、一个相对全面的大鼠脑图谱,以及一个新的非人灵长类动物图谱的早期版本。在脑模拟方面,HBP发布的脑模拟仿真引擎涵盖了从分子和亚细胞到细胞、网络和全脑水平的多尺度脑模拟。全脑水平上,HBP发布了虚拟大脑[72](The Virtual Brain,TVB)开源平台用于构建和模拟个性化的大脑网络模型。在神经形态计算方面,HBP集成有SpiNNaker和BrainScaleS两套大型神经形态计算系统。位于英国曼彻斯特的多核SpiNNaker机器基于数字多核架构提供实时操作;传统的BrainScaleS-1系统基于神经元、突触和可塑性模型的物理仿真,提供高度加速操作;下一代BrainScaleS-2单芯片系统具有512个点状神经元,不仅具有可编程的可塑性,而且可以很好地弥补计算平台的异质性给系统性能带来的降低。在神经机器人方面,HBP关注机器人行为控制、认知学习、人机协同等方面的研究。HBP研究大脑、本体和物理环境之间的闭环互动,开发了基于触摸的远程机器人手,能够协调手部运动实现灵巧地操纵物体。


- Björn Öberg -

同年启动的美国脑计划(BRAIN)初期与人工智能研究的结合并不紧密,而随后美国高级情报研究计划署(IARPA)于2015年启动资助达 1 亿美元的为期5年的MICrONS项目。MICrONS 项目团队试图通过使用鼠脑数据绘制出1立方毫米脑组织的神经元结构,研究其神经元间环路连通的模式,从而逆向推演动物的大脑如何对外界刺激进行反应。他们通过设计自动化的工具理解大脑如何连接,可以实现不间断连续自助成像,并能够获取千兆级数据集[73];研究人员在小鼠大脑的一小块区域中追踪了数千个神经元的路径,绘制出迄今为止最大的神经元连接线路图,同时不仅展示了这些神经元是如何连接的,还展示了它们在大脑处理信息时的功能[74]。近期,MICrONS发布了迄今为止最大的功能连接组数据集,也是按最小维度,细胞数量和检测到的突触数计算的最大的连接组学数据,包含了20万个脑细胞和接近5亿个突触的精细结构和连接。由于其规模和位置,该数据集包含多个皮层视觉区域,能够进行区域内和区域间的连接分析[75]。


在美国脑计划的进程将要过半的时间,美国国立卫生研究院顾问委员会于2018年4月召集了一个新的外部专家小组,对2014年提出的《BRAIN 2025》的实施情况和未来的发展进行再梳理,于2019年6月提交了时间跨度涵盖从2020年到2025年的《BRAIN 2.0》。2022年9月,美国国立卫生研究院(NIH)宣布了两个由“脑科学计划”发起的创新项目,其中一个就是“脑科学计划之细胞图谱网络项目”(BICAN)。未来5年,BICAN项目将获得5亿美元的资助,用于绘制世界最全面的脑细胞图。这些BRAIN 2.0项目旨在改变我们对脑细胞类型的理解,以及获取它们所需的精确工具,以期更加了解人脑的复杂工作机制。


日本于2014年6月启动名为Brain/MINDS(Brain Mapping by Integrated Neurotechnologies for Disease Studies)的10年国家研究计划脑计划,在脑模拟方向上的进展主要体现在依托超级计算机对大规模脑网络的模拟上。日本理化研究所和富士通公司建立的“京”计算机,前期使用82944个处理器+1PB内存,耗时40分钟模拟1秒钟的17.3亿神经元的活动。2019年,推出“MONET”模拟器,通过对任务的分块和数据的共享实现访存功耗与带宽的降低[76]。同期,“京”超级计算机正式退役。


在半导体技术的快速进展下,日本理化研究所和富士通公司建立新的超级计算机“富岳”。2020年,他们在“MONET”模拟器上,实现了具有50亿个神经元的大脑皮层且具有640亿个神经元的小脑的模型的仿真模拟[77,78],并且适配“富岳”的宽位SIMD和众核架构,相比于“京”超级计算机,有40倍的性能提升。2021年,“富岳”超级计算机开始正式运行。截至2022年5月,“富岳”超级计算机在发布的超级计算机排行榜位列第二名。2022年,Gutierrez等提出SNNBuilder[79],一个从解剖学与电生理实验数据到脉冲神经网络模型构建的数据驱动的协同开发框架,为Brain/MINDS提供了系统的脉冲神经网络建模工具。


来自冲绳科学技术大学的Kenji Doya团队关注于在闭环中模拟脑-身体-环境的三位一体架构,提出了一个基于NEST的大规模脉冲神经网络框架,实现生物学精准的肌肉骨骼模拟系统。该系统与物理上真实的虚拟环境互动,并部署在EBRAINS的高性能计算资源上[80]。此外,Kenji Doya等建立了一个全脑概率生成模型实现的认知架构,该架构受人脑结构启发,整合多个基本的认知模块实现一体化训练,基于概率生成模型为发育机器人设计了一个不断学习的基于感觉-运动信息的认知系统[81]。


来自日本理化技术研究所的孙哲等主要致力于研究多类型皮层神经元在面对外界刺激时的协同作用以及利用类型丰富的神经元建立皮层-基底节-小脑-丘脑的环路[82]。例如,初级躯体感觉皮层不同神经元、不同放电模式的累加可能导致环绕抑制这一现象[83],以及M1皮层中间类型神经元表现出能够对网络的局部与全局抑制范围可控等特点[84]。


- Martin David -

2021年,中国“脑科学与类脑研究”重大项目指南发布,中国脑计划在类脑计算、大规模脑模拟、脑机接口、神经形态芯片等方面已取得一定进展。前期清华大学推出的Tianjic芯片模拟了大脑中神经元之间传递信号的方式,ANN与SNN模式共享路由设施、存储空间和数据传输通路,各自拥有独立的运算处理通路,从而实现ANN与SNN的异构融合,并在无人自行车自动驾驶[85]以及猫鼠机器人[86]上进行了应用研究。北京大学推出的SpikingJelley面向深度脉冲网络[87],从数值优化的角度探索更加高性能的脉冲神经网络训练算法。浙江大学推出神经拟态处理器Darwin[88,89]和相应的工具链和微操作系统,并在手写数字识别和运动图像的脑电图解码任务上得到验证。随后推出的Darwin 2,采用55nm工艺,支持超过1000万个突触连接。中国科学院自动化研究所于2022年发布基于全脉冲神经网络的类脑认知智能引擎“智脉”(BrainCog)[7]。智脉以多尺度神经可塑性为基本组件,同时支持类脑人工智能和脑结构功能模拟。脑模拟方面涵盖针对神经微环路、皮质柱、鼠脑、猴脑、人脑等不同物种大脑的多尺度脑结构与机制的计算模拟。


类脑脉冲神经网络平台-

脑模拟与类脑人工智能的交汇

我们对现有的脉冲神经网络模拟平台从神经元、连接、学习法则、脑区划分进行了对比(如表1所示)发现,以往绝大多数平台或试图仿真更为复杂的生物神经元、突触,以及各种突触可塑性机制[90-96],或试图构建大规模的深度学习脉冲神经网络框架[87]。


表1 国内外类脑脉冲神经网络及脑模拟平台对比


目前,已有的研究并不能很好在具备面向人工智能的高效学习与决策的同时,还具有对脑认知功能建模和脑结构模拟的能力。中科院自动化所类脑认知智能研究组提出并发布的智脉(BrainCog)[7]框架分别从类脑人工智能计算模型(目前发布20个算法模型及源代码)、脑结构和功能模拟(覆盖鼠脑、猴脑、人脑模拟)方面提供了相当数量的应用案例。智脉以多尺度生物可塑性原理为基础,支持全脉冲神经网络建模,具备脑启发的人工智能模型以及脑功能和结构模拟能力。智脉整合了不同的神经元模型、类脑学习与可塑性法则、编码策略,基于脉冲神经网络实现可以映射到28个关键功能性脑区的计算模型。同时,智脉协同多个脑区形成不同的神经环路,初步实现了五大类认知功能——感知和学习、决策、运动控制、知识表征和推理、社会认知(如心理揣测、认知与情感共情)[7, 99, 100]。


在脑结构和功能模拟方面,智脉包含有果蝇线性和非线性决策、前额叶皮层工作记忆功能模拟。智脉集成了多尺度的脑结构模拟,从神经微环路、皮层功能柱,到初步的鼠脑、猴脑、人脑全脑脉冲神经网络模拟。图 1展示了BrainCog支持的大鼠V1区胞体、大鼠V1区神经元、大鼠V1区,以及M2区微米尺度结构重建、全脑神经元的多尺度脑结构重建的结果。


图1:基于智脉(BrainCog)的多尺度脑脉冲神经网络模拟

(a) 大鼠V1区胞体重建;(b) 大鼠V1区神经元重建;(c) 大鼠V1区与M2区神经元重建对比;(d) 大鼠全脑微米尺度神经元结构重建(大鼠脑高尔基染色原始实验数据来自[98])


在类脑人工智能计算模型方面,智脉覆盖有无监督学习、有监督学习、强化学习、小样本学习、多感觉融合的概念学习、音乐序列学习与创作、知识表征与推理、运动控制,以及以人形机器人为载体的自我建模、心理揣测、认知与情感共情等高等认知功能、以无人机为载体的集群自组织决策等智能应用。具体而言,智脉支持类脑自我感知脉冲神经网络模型,使得机器人能够区分自我和他人、通过镜像测试(图2a);智脉实现的多脑区协同的类脑心理揣测脉冲神经网络能够利用自我经验对他人进行信念揣测和行为预测,使机器人通过错误信念实验(图2b);通过协同感知与学习、知识表征与推理、运动控制等认知功能,智脉还赋予了人形机器人依赖于情感的乐曲创作与演奏(图2c);以智脉为基础实现的奖励调控类脑脉冲神经网络可以赋能无人机集群使其实现基于自然启发的自组织避障(图2d)。


图2 基于智脉(BrainCog)的部分类脑认知智能应用

(a) 机器人镜像自我识别测试;(b) 机器人心理揣测他人错误信念;(c) 人形机器人多认知功能协同情感驱动音乐创作与演奏;(d) 无人机集群自然启发的自组织避障


总结与展望

实现真正意义的人工智能离不开对智能本质的探索。虽然,实现真正科学意义又对人类有益的人工智能需要做一些妥协,例如人类不擅长的东西不要引入到类脑智能研究中;生物上发现的折中的策略也没必要放到类脑智能系统中。但是,脑结构与功能的模拟,包括学习、发育、演化等多尺度可塑性本质探索则应当作为发展未来人工智能的基础。科学意义上的人工智能应当发展结构与机制受脑与心智启发、认知行为达到乃至超越人类水平的类脑智能。只有深度融合来自认知体系结构、计算神经科学与人工智能的科学理论与进展,才能为发展类脑人工智能奠定更具科学性和可持续性的未来。


参考文献


[1] ANDERSON J R. How can the human mind occur in the physical universe? [M]. Oxford University Press, 2009.

[2] KOTSERUBA I, TSOTSOS J K. 40 years of cognitive architectures: core cognitive abilities and practical applications [J]. Artificial Intelligence Review, 2020, 53(1): 17–94.

[3] ANDERSON J R, LEBIERE C J. The atomic components of thought [M]. Psychology Press, 2014.

[4] O'REILLY R C, Hazy T E, Herd S A. The leabra cognitive architecture: How to play 20 principles with nature [J]. The Oxford Handbook of Cognitive Science, 2016, 91: 91-116..

[5] JILK D J, LEBIERE C, O’REILLY R C, ANDERSON J R. SAL: An explicitly pluralistic cognitive architecture [J]. Journal of Experimental and Theoretical Artificial Intelligence, 2008, 20(3): 197–218.

[6] LAIRD J E. The Soar cognitive architecture [M]. MIT press, 2019.

[7] ZENG Y, ZHAO D, ZHAO F, SHEN G, DONG Y, LU E, ZHANG Q, SUN Y, LIANG Q, ZHAO Y, ZHAO Z, FANG H, WANG Y, L YANG, LIU X, DU C, KONG Q, RUAN Z, BI W. BrainCog: A Spiking Neural Network based Brain-inspired Cognitive Intelligence Engine for Brain-inspired AI and Brain Simulation [J]. arXiv preprint arXiv:220708533, 2022.

[8] WANG P. Non-axiomatic reasoning system: Exploring the essence of intelligence [M]. Indiana University, 1995.

[9] GOERTZEL B. OpenCogPrime: A cognitive synergy based architecture for artificial general intelligence; proceedings of the 2009 8th IEEE International Conference on Cognitive Informatics, F, 2009 [C]. IEEE.

[10] BAARS B J, FRANKLIN S. Consciousness is computational: The LIDA model of global workspace theory [J]. International Journal of Machine Consciousness, 2009, 1(01): 23-32.

[11] SELFRIDGE O G. Pandemonium: a paradigm for learning, Mechanism of Thought Processes: Proceedings of a Symposium Held at the National Physical Laboratory [Z]. London: HMSO. 1958

[12] MINSKY M. Society of mind [M]. Simon and Schuster, 1988.

[13] SLOMAN A. The cognition and affect project: Architectures, architecture-schemas, and the new science of mind [Z]. Tech. rep., School of Computer Science, University of Birmingham. 2003

[14] BAARS B J. Global workspace theory of consciousness: toward a cognitive neuroscience of human experience [J]. Progress in brain research, 2005, 150: 45–53.

[15] SETH A K, BAYNE T. Theories of consciousness [J]. Nature Reviews Neuroscience, 2022: 1–14.

[16] LAPIQUE L. Recherches quantitatives sur l'excitation electrique des nerfs traitee comme une polarization [J]. Journal of Physiology and Pathololgy, 1907, 9: 620–35.

[17] HODGKIN A L, HUXLEY A F. A quantitative description of membrane current and its application to conduction and excitation in nerve [J]. The Journal of physiology, 1952, 117(4): 500.

[18] RALL W. Membrane time constant of motoneurons [J]. Science, 1957, 126(3271): 454–.

[19] TRAUB R D, WONG R K, MILES R, MICHELSON H. A model of a CA3 hippocampal pyramidal neuron incorporating voltage-clamp data on intrinsic conductances [J]. Journal of neurophysiology, 1991, 66(2): 635–50.

[20] IZHIKEVICH E M. Simple model of spiking neurons [J]. IEEE Transactions on neural networks, 2003, 14(6): 1569-72.

[21] TRAUB R D, WONG R K, MILES R, MICHELSON H. A model of a CA3 hippocampal pyramidal neuron incorporating voltage-clamp data on intrinsic conductances [J]. Journal of neurophysiology, 1991, 66(2): 635-50.

[22] WANG X-J, BUZSáKI G. Gamma oscillation by synaptic inhibition in a hippocampal interneuronal network model [J]. Journal of neuroscience, 1996, 16(20): 6402–13.

[23] POIRAZI P, MEL B W. Impact of active dendrites and structural plasticity on the memory capacity of neural tissue [J]. Neuron, 2001, 29(3): 779–96.

[24] JADI M P, BEHABADI B F, POLEG-POLSKY A, SCHILLER J, MEL B W. An augmented two-layer model captures nonlinear analog spatial integration effects in pyramidal neuron dendrites [J]. Proceedings of the IEEE, 2014, 102(5): 782–98.

[25] LOSONCZY A, MAKARA J K, MAGEE J C. Compartmentalized dendritic plasticity and input feature storage in neurons [J]. Nature, 2008, 452(7186): 436–41.

[26] WILSON H R, COWAN J D. Excitatory and inhibitory interactions in localized populations of model neurons [J]. Biophysical journal, 1972, 12(1): 1–24.

[27] ACEBRóN J A, BONILLA L L, VICENTE C J P, RITORT F, SPIGLER R. The Kuramoto model: A simple paradigm for synchronization phenomena [J]. Reviews of modern physics, 2005, 77(1): 137.

[28] PONCE-ALVAREZ A, DECO G, HAGMANN P, ROMANI G L, MANTINI D, CORBETTA M. Resting-state temporal synchronization networks emerge from connectivity topology and heterogeneity [J]. PLoS computational biology, 2015, 11(2): e1004100.

[29] O'KEEFE J, BURGESS N. Dual phase and rate coding in hippocampal place cells: theoretical significance and relationship to entorhinal grid cells [J]. Hippocampus, 2005, 15(7): 853–66.

[30] FUHS M C, TOURETZKY D S. A spin glass model of path integration in rat medial entorhinal cortex [J]. Journal of Neuroscience, 2006, 26(16): 4266–76.

[31] HUBEL D H, WIESEL T N. Receptive fields, binocular interaction and functional architecture in the cat's visual cortex [J]. The Journal of physiology, 1962, 160(1): 106.

[32] HUBEL D H, WIESEL T N. Receptive fields and functional architecture in two nonstriate visual areas (18 and 19) of the cat [J]. Journal of neurophysiology, 1965, 28(2): 229–89.

[33] RIESENHUBER M, POGGIO T. Hierarchical models of object recognition in cortex [J]. Nature neuroscience, 1999, 2(11): 1019–25.

[34] HEBB D O. Organization of behavior. new york: Wiley [J]. J Clin Psychol, 1949, 6(3): 335–07.

[35] BI G-Q, POO M-M. Synaptic modifications in cultured hippocampal neurons: dependence on spike timing, synaptic strength, and postsynaptic cell type [J]. Journal of neuroscience, 1998, 18(24): 10464–72.

[36] IZHIKEVICH E M, EDELMAN G M. Large-scale model of mammalian thalamocortical systems [J]. Proceedings of the national academy of sciences, 2008, 105(9): 3593–8.

[37] LEE L, FRISTON K, HORWITZ B. Large-scale neural models and dynamic causal modelling [J]. Neuroimage, 2006, 30(4): 1243–54.

[38] HORWITZ B, FRISTON K J, TAYLOR J G. Neural modeling and functional brain imaging: an overview [J]. Neural networks, 2000, 13(8-9): 829–46.

[39] TAGAMETS M A, HORWITZ B. Integrating electrophysiological and anatomical experimental data to create a large-scale model that simulates a delayed match-to-sample human brain imaging study [J]. Cerebral cortex (New York, NY: 1991), 1998, 8(4): 310–20.

[40] STEWART T, CHOO F-X, ELIASMITH C. Spaun: A perception-cognition-action model using spiking neurons [C]. Proceedings of the Annual Meeting of the Cognitive Science Society. 2012

[41] MCCULLOCH W S, PITTS W. A logical calculus of the ideas immanent in nervous activity [J]. The bulletin of mathematical biophysics, 1943, 5(4): 115–33.

[42] MAASS W. Networks of spiking neurons: the third generation of neural network models [J]. Neural networks, 1997, 10(9): 1659–71.

[43] BENIAGUEV D, SEGEV I, LONDON M. Single cortical neurons as deep artificial neural networks [J]. Neuron, 2021, 109(17): 2727–39.

[44] RUMELHART D E, HINTON G E, WILLIAMS R J. Learning internal representations by error propagation [Z]. California Univ San Diego La Jolla Inst for Cognitive Science. 1985

[45] LILLICRAP T P, COWNDEN D, TWEED D B, AKERMAN C J. Random synaptic feedback weights support error backpropagation for deep learning [J]. Nature communications, 2016, 7(1): 1–10.

[46] MOVELLAN J R. Contrastive Hebbian learning in the continuous Hopfield model [M]. Connectionist models. Elsevier. 1991: 10–7.

[47] DETORAKIS G, BARTLEY T, NEFTCI E. Contrastive Hebbian learning with random feedback weights [J]. Neural Networks, 2019, 114: 1–14.

[48] MILLIDGE B, SONG Y, SALVATORI T, LUKASIEWICZ T, BOGACZ R. Backpropagation at the Infinitesimal Inference Limit of Energy-Based Models: Unifying Predictive Coding, Equilibrium Propagation, and Contrastive Hebbian Learning [J]. arXiv preprint arXiv:220602629, 2022.

[49] KERMICHE N. Contrastive hebbian feedforward learning for neural networks [J]. IEEE transactions on neural networks and learning systems, 2019, 31(6): 2118–28.

[50] SCELLIER B, BENGIO Y. Equilibrium propagation: Bridging the gap between energy-based models and backpropagation [J]. Frontiers in computational neuroscience, 2017, 11: 24.

[51] LABORIEUX A, ERNOULT M, SCELLIER B, BENGIO Y, GROLLIER J, QUERLIOZ D. Scaling equilibrium propagation to deep convnets by drastically reducing its gradient estimator bias [J]. Frontiers in neuroscience, 2021, 15: 129.

[52] O'CONNOR P, GAVVES E, WELLING M. Initialized equilibrium propagation for backprop-free training [C]. International Conference on Learning Representations. 2018

[53] NøKLAND A. Direct feedback alignment provides learning in deep neural networks [J]. Advances in neural information processing systems, 2016, 29.

[54] LEE D-H, ZHANG S, FISCHER A, BENGIO Y. Difference target propagation [C]. Joint european conference on machine learning and knowledge discovery in databases. Springer. 2015: 498–515

[55] ORORBIA A G, MALI A. Biologically motivated algorithms for propagating local target representations [C]. Proceedings of the aaai conference on artificial intelligence. 2019: 4651–8

[56] YAMINS D L K, DICARLO J J. Using goal-driven deep learning models to understand sensory cortex [J]. Nature neuroscience, 2016, 19(3): 356–65.

[57] COSTA R, ASSAEL I A, SHILLINGFORD B, DE FREITAS N, VOGELS T. Cortical microcircuits as gated-recurrent neural networks [J]. Advances in neural information processing systems, 2017, 30.

[58] GEORGE D, HAWKINS J. Towards a mathematical theory of cortical micro-circuits [J]. PLoS computational biology, 2009, 5(10): e1000532.

[59] BRAVER T, COHEN J D, SERVAN-SCHREIBER D. A computational model of prefrontal cortex function [J]. Advances in neural information processing systems, 1994, 7.

[60] WANG J X, KURTH-NELSON Z, KUMARAN D, TIRUMALA D, SOYER H, LEIBO J Z, HASSABIS D, BOTVINICK M. Prefrontal cortex as a meta-reinforcement learning system [J]. Nature neuroscience, 2018, 21(6): 860–8.

[61] HAFNER D, IRPAN A, DAVIDSON J, HEESS N. Learning hierarchical information flow with recurrent neural modules [J]. Advances in Neural Information Processing Systems, 2017, 30.

[62] REMMELZWAAL L A, MISHRA A K, ELLIS G F R. CTNN: Corticothalamic-inspired neural network [J]. arXiv preprint arXiv:191012492, 2019.

[63] AKOPYAN F, SAWADA J, CASSIDY A, ALVAREZ-ICAZA R, ARTHUR J, MEROLLA P, IMAM N, NAKAMURA Y, DATTA P, NAM G-J, OTHERS. Truenorth: Design and tool flow of a 65 mw 1 million neuron programmable neurosynaptic chip [J]. IEEE transactions on computer-aided design of integrated circuits and systems, 2015, 34(10): 1537–57.

[64] DAVIES M, SRINIVASA N, LIN T-H, CHINYA G, CAO Y, CHODAY S H, DIMOU G, JOSHI P, IMAM N, JAIN S, OTHERS. Loihi: A neuromorphic manycore processor with on-chip learning [J]. Ieee Micro, 2018, 38(1): 82–99.

[65] PAINKRAS E, PLANA L A, GARSIDE J, TEMPLE S, GALLUPPI F, PATTERSON C, LESTER D R, BROWN A D, FURBER S B. SpiNNaker: A 1-W 18-core system-on-chip for massively-parallel neural network simulation [J]. IEEE Journal of Solid-State Circuits, 2013, 48(8): 1943–53.

[66] HEIDARPUR M, AHMADI A, AHMADI M, AZGHADI M R. CORDIC-SNN: On-FPGA STDP learning with izhikevich neurons [J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2019, 66(7): 2651–61.

[67] GOMAR S, AHMADI A. Digital multiplierless implementation of biological adaptive-exponential neuron model [J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2013, 61(4): 1206–19.

[68] WU J, ZHAN Y, PENG Z, JI X, YU G, ZHAO R, WANG C. Efficient design of spiking neural network with STDP learning based on fast CORDIC [J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2021, 68(6): 2522–34.

[69] LAMMIE C, HAMILTON T J, VAN SCHAIK A, AZGHADI M R. Efficient FPGA implementations of pair and triplet-based STDP for neuromorphic architectures [J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2018, 66(4): 1558–70.

[70] AMUNTS K, EBELL C, MULLER J, TELEFONT M, KNOLL A, LIPPERT T. The human brain project: creating a European research infrastructure to decode the human brain [J]. Neuron, 2016, 92(3): 574-81.

[71] AMUNTS K, MOHLBERG H, BLUDAU S, ZILLES K. Julich-Brain: A 3D probabilistic atlas of the human brain’s cytoarchitecture [J]. Science, 2020, 369(6506): 988-92.

[72] SCHIRNER M, DOMIDE L, PERDIKIS D, TRIEBKORN P, STEFANOVSKI L, PAI R, PRODAN P, VALEAN B, PALMER J, LANGFORD C. Brain simulation as a cloud service: The Virtual Brain on EBRAINS [J]. NeuroImage, 2022, 251: 118973.

[73] YIN W, BRITTAIN D, BORSETH J, SCOTT M E, WILLIAMS D, PERKINS J, OWN C S, MURFITT M, TORRES R M, KAPNER D, MAHALINGAM G, BLECKERT A, CASTELLI D, REID D, LEE W A, GRAHAM B J, TAKENO M, BUMBARGER D J, FARRELL C, REID R C, DA COSTA N M. A petascale automated imaging pipeline for mapping neuronal circuits with high-throughput transmission electron microscopy [J]. Nat Commun, 2020, 11(1): 4949.

[74] LEE W C, BONIN V, REED M, GRAHAM B J, HOOD G, GLATTFELDER K, REID R C. Anatomy and function of an excitatory network in the visual cortex [J]. Nature, 2016, 532(7599): 370-4.

[75] BAE J A, BAPTISTE M, BODOR A L, BRITTAIN D, BUCHANAN J, BUMBARGER D J, CASTRO M A, CELII B, COBOS E, COLLMAN F. Functional connectomics spanning multiple areas of mouse visual cortex [J]. BioRxiv, 2021.

[76] IGARASHI J, YAMAURA H, YAMAZAKI T. Large-Scale Simulation of a Layered Cortical Sheet of Spiking Network Model Using a Tile Partitioning Method [J]. Front Neuroinform, 2019, 13: 71.

[77] YAMAURA H, IGARASHI J, YAMAZAKI T. Simulation of a Human-Scale Cerebellar Network Model on the K Computer [J]. Front Neuroinform, 2020, 14: 16.

[78] YAMAZAKI T, IGARASHI J, YAMAURA H. Human-scale Brain Simulation via Supercomputer: A Case Study on the Cerebellum [J]. Neuroscience, 2021, 462: 235-46.

[79] GUTIERREZ C E, SKIBBE H, MUSSET H, DOYA K. A Spiking Neural Network Builder for Systematic Data-to-Model Workflow [J]. Front Neuroinform, 2022, 16: 855765.

[80] FELDOTTO B, EPPLER J M, JIMENEZ-ROMERO C, BIGNAMINI C, GUTIERREZ C E, ALBANESE U, RETAMINO E, VOROBEV V, ZOLFAGHARI V, UPTON A. Deploying and Optimizing Embodied Simulations of Large-Scale Spiking Neural Networks on HPC Infrastructure [J]. Frontiers in neuroinformatics, 2022, 16.

[81] TANIGUCHI T, YAMAKAWA H, NAGAI T, DOYA K, SAKAGAMI M, SUZUKI M, NAKAMURA T, TANIGUCHI A. A whole brain probabilistic generative model: Toward realizing cognitive architectures for developmental robots [J]. Neural Networks, 2022, 150: 293-312.

[82] GUTIERREZ C E, ZHE S, YAMAURA H, HEIDARINEJAD M, IGARASHI J, YAMAZAKI T, DOYA K. Simulation of resting-state neural activity in a loop circuit of the cerebral cortex, basal ganglia, cerebellum, and thalamus using NEST simulator [C]. the The 30th Annual Conference of the Japanese Neural Network Society, 2020.

[83] ZHE S, MORTEZA H, JUN I. Spatial summation of excitatory and inhibitory signals in a model of the rodent primary somatosensory cortex [C]. The 29th Annual Conference of the Japanese Neural Network Society, 2019.

[84] MORTEZA H, ZHE S, JUN I. Switches of activation in hierarchical inhibitory circuitry in simulated primary motor cortex [C]. The 29th Annual Conference of the Japanese Neural Network Society, 2019.

[85] PEI J, DENG L, SONG S, ZHAO M, ZHANG Y, WU S, WANG G, ZOU Z, WU Z, HE W. Towards artificial general intelligence with hybrid Tianjic chip architecture [J]. Nature, 2019, 572(7767): 106-11.

[86] MA S, PEI J, ZHANG W, WANG G, FENG D, YU F, SONG C, QU H, MA C, LU M. Neuromorphic computing chip with spatiotemporal elasticity for multi-intelligent-tasking robots [J]. Science Robotics, 2022, 7(67): eabk2948.

[87] FANG W, CHEN Y, DING J, CHEN D, YU Z, ZHOU H, TIAN Y, CONTRIBUTORS O. SpikingJelly[EB/OL] 2020 https://github.com/fangwei123456/spikingjelly.

[88] SHEN J, MA D, GU Z, ZHANG M, ZHU X, XU X, XU Q, SHEN Y, PAN G. Darwin: a neuromorphic hardware co-processor based on spiking neural networks [J]. Science China Information Sciences, 2016, 59(2): 1-5.

[89] MA D, SHEN J, GU Z, ZHANG M, ZHU X, XU X, XU Q, SHEN Y, PAN G. Darwin: A neuromorphic hardware co-processor based on spiking neural networks [J]. Journal of Systems Architecture, 2017, 77: 43-51.

[90] CARNEVALE N T, HINES M L. The NEURON book [M]. Cambridge University Press, 2006.

[91] GOODMAN D F M, BRETTE R. The brian simulator [J]. Frontiers in neuroscience, 2009: 26.

[92] STIMBERG M, BRETTE R, GOODMAN D F M. Brian 2, an intuitive and efficient neural simulator [J]. Elife, 2019, 8: e47314.

[93] WANG C, JIANG Y, LIU X, LIN X, ZOU X, JI Z, WU S. A Just-In-Time Compilation Approach for Neural Dynamics Simulation [Z]. International Conference on Neural Information Processing. Springer. 2021: 15–26

[94] GEWALTIG M-O, DIESMANN M. Nest (neural simulation tool) [J]. Scholarpedia, 2007, 2(4): 1430.

[95] BEKOLAY T, BERGSTRA J, HUNSBERGER E, DEWOLF T, STEWART T C, RASMUSSEN D, CHOO X, VOELKER A R, ELIASMITH C. Nengo: a Python tool for building large-scale functional brain models [J]. Frontiers in neuroinformatics, 2014, 7: 48.

[96] HAZAN H, SAUNDERS D J, KHAN H, PATEL D, SANGHAVI D T, SIEGELMANN H T, KOZMA R. Bindsnet: A machine learning-oriented spiking neural networks library in python [J]. Frontiers in neuroinformatics, 2018, 12: 89.

[97] HONG C, YUAN M, ZHANG M, WANG X, ZHANG C, WANG J, PAN G, WU Z, TANG H. SPAIC: A Spike-based Artificial Intelligence Computing Framework [J]. arXiv preprint arXiv:220712750, 2022.

[98] 武汉光电国家实验室. HUST Visible Brain-Wide Network[2022-12-02]. http://vbn.org.cn.

[99] Feng H, Zeng Y, Lu EM. Brain-Inspired Affective Empathy Computational Model and Its Application on Altruistic Rescue Task [J], Frontiers in Computational Neuroscience. 2022,16:784967,.

[100] Feng H, Zeng Y. A brain-inspired robot pain model based on a spiking neural network [J]. Frontiers in Neurorobotics. 2022,16:1025338,.


作者:曾毅、张倩、赵菲菲、赵东城、李金东、申国斌、毕韦达 排版:光影 | 封面:Martin David

转载自微信公众号“智能的本质与未来”:

https://mp.weixin.qq.com/s/ATZ8Bjq7nUOH5E-2EE9JGQ


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存