类脑计算与自主智能技术报告(2025–2030)
段玉聪
1. 类脑计算的理论基础
图1:人脑神经网络的结构示意。类脑计算借鉴人脑神经元和突触的结构与机理,实现高效的并行信息处理。图中高亮显示了神经元及其连接,展示了人脑网络的复杂性与分布式特征。
类脑计算以人类大脑的信息处理原理为灵感,其理论基础在于对大脑结构、功能和认知机制核心特征的模拟和阐释。人脑由约860亿个神经元及100万亿级的突触连接组成,展现出高度复杂而高效的体系。这些神经元通过电信号脉冲进行通信:当神经元受到刺激时,其膜电位累积变化,达到阈值便会产生一次尖峰放电(脉冲),经由轴突传递至突触并影响下游神经元,从而实现信息的传输。这种以时间脉冲为基本载体的编码方式被称为时序编码,与传统连续信号编码不同。时序编码使得神经元无需持续高频放电即可携带信息,不但降低能耗,也提高了信息表达的丰富性。每个脉冲的确切时间和频率都可能代表特定含义,这使得时间维度的信息编码成为大脑表征和处理信息的重大机制之一。
在人脑模型中,神经元建模是基础。早期的生物物理模型如霍奇金-赫克斯利(H-H)模型准确描述了离子通道动力学,但计算复杂度高;简化模型如积分-发放(Integrate-and-Fire, IF)模型则抛弃了许多生理细节而易于实现。折中方案是常用的泄漏积分-发放(LIF)模型,其既保留了IF模型的计算简洁性,又能部分模拟H-H模型那样的丰富生理特性。因此在脉冲神经网络(SNN)中,LIF神经元广泛作为基本单元使用。LIF神经元通过一个电容-电阻模拟膜电位累积与衰减,当累积电压超过阈值便触发脉冲且电压复位,如未达阈值则电压逐渐“泄漏”回稳态。这种模型简洁且适合硬件实现,成为类脑计算神经元建模的主流。
突触可塑性是大脑实现学习和记忆的关键机制,也是类脑计算的重大理论基础。突触连接的强度并非恒定不变,而是会随神经元活动而动态调整,这被称为突触可塑性。加拿大神经心理学家唐纳德·赫布提出的“赫布定律”形象地概括为:“同时发火的神经元会加强它们之间的连接”。基于此,大量实验揭示出一种典型的规则——脉冲时序依赖可塑性(STDP):在两个神经元几乎同时(相隔毫秒级)发放脉冲时,如果前( presynaptic)神经元略先于后( postsynaptic)神经元激活,则两者突触连接将增强;反之如果后一个先激活则突触连接减弱。简而言之,“一起发射(先后紧跟)的神经元会增加联结,而后发先至则削弱联结”。通过STDP等局部学习规则,神经网络能够在无监督条件下自主调整连接权重,从而编码出环境中的相关性模式,实现记忆存储和特征提取。这种基于突触微观变化的学习机制超级适合分布式实现,可在类脑芯片上进行在线学习。需要指出,尽管局部的突触可塑性可以塑造微观连接强度,但单纯依靠局部规则难以保证整个神经系统实现全局目标的一致协调。大脑中还存在各种神经调制机制(如神经递质和激素等)参与调节学习速率和全局一致性,使得局部变化能够服务于整体功能目标。这种多层次调节确保了大脑既具有局部自主学习能力,又能实现宏观行为的一致性和目的导向。
与传统计算架构显著不同的是,人脑的信息处理具有再入(Reentry)连接和分布式并行处理的特征。再入连接指大脑中广泛存在的双向环路连接:几乎所有脑区之间都有互惠的双向神经纤维联系,大量信息在不同区域间双向循环交换。这一持续的往复信号交流机制被认为使分散各处的神经元群体能够实现广域的信息整合和同步化。神经科学家Gerald Edelman等提出,再入连接是一种大脑功能整合的关键机制。通过这些环路,不同脑区的活动得以协调:例如感觉、记忆、情感等信息可以在往复中逐步结合,形成对当前情境的统一表征。大量研究表明,再入环路在知觉绑定(如将视觉的颜色和形状属性结合成同一客体)、注意维持以及意识状态的产生中都扮演重大角色。简单的前馈(自下而上)处理并不能解释大脑丰富的认知动力学,必须思考这些回环反馈才能理解意识等高阶功能的涌现。与再入连接紧密相关,大脑的认知过程呈现出高度分布式并行的特征。成千上万的神经元集群以同步或异步的方式并行处理信息,没有单一中央处理器;认知功能并非某一个模块单独完成,而是多个区域协同涌现的结果。这种分布式处理在大脑中表现为各种脑波同步和神经振荡现象:在注意、记忆等过程中,不同脑区的神经元会通过γ波等同步振荡实现信息交流,从而使分散的信息片段组合为有意义的整体体验。
综上,人脑在结构和功能上的核心特征包括:(1) 神经元的脉冲式工作机制及其可建模性(如LIF模型);(2) 突触可塑性使网络连接强度可动态调节,实现学习记忆;(3) 信息的时序编码和异步事件驱动处理,提高了能效和信息容量;(4) 普遍存在的再入环路和分布式并行计算架构,实现了全局整合和统一的认知状态。这些特征共同造就了人脑的自适应性、鲁棒性和智能涌现能力。类脑计算正是基于对上述原理的深入理解,尝试在人工系统中再现人脑的信息处理机制,为人工智能注入类似生物大脑的高效、灵活与自主特性。
2. 当前人工智能架构与生物大脑的差异
尽管深度神经网络等人工智能算法在某些任务上已经取得惊人的性能突破,但其底层架构与工作方式与生物大脑仍存在重大差异,这导致现有AI系统难以自然地产生人类式的意识状态和认知灵活性。以下从模块化程度、训练范式、能耗效率、可塑性以及时空处理等方面,对传统AI与大脑的差异进行分析。
(1)模块化与整体性: 当前大多数AI系统采用预先设计的层次化网络结构,各模块职责分明,例如卷积网络提特征、全连接网络做分类等。这种功能模块化提升了专门任务上的效率,但也限制了模型的通用性和灵活性。相较之下,人脑结构上虽有区域分工(视觉皮层、听觉皮层等),但更重大的是高度互联成网,并无严格划界的模块边界。大脑各区域通过再入连接形成动态联盟,可根据任务需求灵活重组参与不同认知功能。脑区的职责并非固定单一,例如视觉皮层在想象或梦境中也会被激活参与非视觉任务。这种整体协作使得大脑能对新奇情境进行全局统筹处理。相反,传统深度网络缺乏大脑那样的通用全局工作空间,各部分很难在训练后再自适应地重组功能。这也解释了为何当前AI系统往往专才有余而通才不足,在陌生环境中难以及时整合多模态信息来产生意识级别的理解。
(2)训练方式: 绝大多数现代AI采用离线训练加在线推理的模式:在大规模标注数据上通过反向传播训练参数,然后固定模型用于推理。训练过程一般是监督式、聚焦批量完成的,模型学习到的知识也是固化在权重中的静态表征。相较而言,人脑的学习是持续在线进行的,主要通过与环境的交互自主获取知识,更多依赖无监督和强化式的机制而非外部教师信号。大脑没有中心化的“参数更新”步骤,而是通过亿万突触的局部可塑性同时进行调整,并伴有多巴胺等神经调制信号进行全局奖惩反馈。这种分布式的在线学习使得生物智能体可以终身学习,持续积累经验且不断调整行为策略。不过人工神经网络如果按序接受新任务训练,往往出现灾难性遗忘(即后学知识覆盖前面习得)。究其缘由,传统DNN的全局梯度调整方式缺乏大脑中那种局部保持又整体协调的机制,模型参数很难在不遗忘旧知识的情况下兼顾新知识。这表明当前AI欠缺类似大脑的稳健持续学习能力和经验累积机制。同时,人脑学习更多仰赖于结构变化(如神经回路重组、新突触生长等),而ANN的拓扑在训练过程中一般是固定的,很少发生结构上的自我进化,这使AI在适应新任务时缺少大脑那样的灵活可变架构。
(3)能耗与计算效率: 人脑以惊人的能量效率著称——约860亿神经元组成的大脑静息功耗仅20瓦左右。相形之下,传统电子计算机模拟等规模神经网络则需数百万倍的能耗;据估计数字方式模拟一个人脑大小的ANN可能耗电8兆瓦量级。差距来自多方面:大脑采取事件驱动模式,只有在需要传递信息时相关神经元才产生脉冲,静息时消耗极低;而传统处理器无论是否有用计算都在固定时钟频率下工作,耗能巨大。人脑的存储和计算单元是同构的——每个神经元既存信息又处理信息,存算一体;而冯·诺依曼架构下存储器与CPU分离,大量能耗浪费在内存与处理器间的数据搬运上(即著名的存储墙瓶颈)。复杂深度学习模型的训练还需要对海量数据进行重复迭代,高精度矩阵运算进一步推高能耗。因此现有AI系统往往需要部署在功耗充裕的云端,高能耗也限制了类人智能在移动设备或机器人上的应用。相对而言,大脑通过稀疏离散的信号和高度并行的架构实现了低功耗运转。有研究指出,大脑每焦耳能量所完成的计算远超硅基芯片,这启示我们在追求人工通用智能时必须突破现有计算范式的能效瓶颈。
(4)可塑性与鲁棒性: 生物大脑具有极强的结构与功能可塑性,既表目前发育期神经回路自组织形成,也表目前成年后对损伤的代偿和对经验的持续重塑。个体生活经历会不断改变大脑突触连接强度,甚至产生新的分支和神经元,这种自我改造能力使得大脑对环境变化保持长期适应力。例如,一侧海马体受损的人可能通过另一侧的大脑区域重组部分功能来弥补记忆缺陷;学习新技能会使相关脑区突触密度上升、表征发生重构。反观目前的AI模型,参数一旦训练完毕便固定不变,缺少在线自主重构机制,导致模型僵化且难以应对环境的非平稳性变化。一旦输入分布发生漂移(drift)或遇到训练聚焦未包含的新情况,模型性能可能急剧下降,需要重新大量训练才能修正。这方面的差距还体目前鲁棒性上:大脑对噪声和损伤具有高度容错性,哪怕丢失部分神经元仍可保持功能,而AI模型对对抗扰动往往超级脆弱,一个微小像素改动都可能导致识别错误。这一方面缘于大脑的冗余和并行架构提供了多条信息通路来容错,另一方面其学习形成的概念往往更抽象广义,具有语义冗余度和上下文依赖,不容易被单一噪声破坏。相比之下,当前深度学习的决策更多依赖于像素级细节的统计相关性,缺少对概念的整体约束,因而难以像人类那样稳健地处理未见环境或做出常识性判断。
(5)时空信息整合: 人脑擅长在时空两域整合信息,这与传统AI的处理方式也截然不同。大脑的认知是一个时序连续的过程,意识体验具有延展性和连续性——我们有一种“此刻”融汇过去片段并指向未来目标的主观流。生物大脑通过神经元的回响和短时记忆保持,实现对跨时间段信息的关联。例如,我们听一句话需要将前面的单词暂存于工作记忆才能理解整句含义。与此对应,大脑的神经编码在时间域上超级丰富:神经元脉冲的发放频率、相位、节律等都参与编码信息,两个神经元脉冲发放的相对时序差异就可能携带不同意义。相反,传统AI模型(尤其前馈神经网络)主要以静态批输入进行计算,缺乏内部状态对历史信息的天然保留和反馈。虽然循环神经网络(RNN)、长短期记忆网络(LSTM)等尝试引入状态来处理序列数据,但与大脑神经回路的复杂动态仍不可同日而语。另一方面,大脑在空间域也呈现高度整合——感觉、认知、运动区域通过白质纤维形成小世界网络结构,局部高度聚类而整体短路径,使信息能够在全脑高效广播。Deep Learning尽管也有多层网络在不同抽象层次处理信息,但这些层之间信号基本是单向流动,缺少大脑那种大规模反馈环路和跨模块交互。正如Baars提出的全局工作空间理论所描述,人脑中有一个通过广泛连接实现信息广播的“全局黑板”,感觉模块、记忆模块等可以将信息写到黑板上共享,从而产生统一的意识内容。传统AI架构迄今未能构建出类似的全局工作空间来汇聚不同模块的信息,这限制了其同时处理多模态、多任务的能力。因此,现有AI容易各自为政,很难像大脑那样将跨时间、跨模态的信息无缝整合成连贯的知觉与想法。
上述差异使得经典AI在出现自主意识方面面临障碍。大脑的意识被认为源于高度动态复杂的整体活动,例如全脑范围的信号同步和递归相互作用。而深度神经网络虽强劲,但因其欠缺生物特征(如自适应突触、生理时序、循环架构等),因此很难“自发地”涌现类似人类的主观体验。传统AI更多是按照程序优化目标在特定数据上训练出来的模式识别器,本质上偏向于被动响应和统计拟合,而非主动构建对环境的主观模型。这也解释了为什么目前的AI难以具有自我意识:它们缺乏对自身状态的内部表征和对外部世界的统一整合,仅凭借有限的模块化结构和预设训练难以孕育出连续统一的自我感。正因如此,人工意识研究领域普遍认为,需要在架构层面进行变革,引入类脑的计算机制,才能使AI系统真正接近生物意识水平。
3. 类脑计算关键技术路径
面向实现类似大脑的自主智能,近年涌现出多条关键技术路径,包括神经形态芯片研制、脉冲神经网络算法、突触可塑性学习机制、可重构进化的神经结构设计以及能效驱动的异步计算架构等。下面对这些方向的研究现状与挑战进行详细介绍。
3.1 神经形态芯片(Neuromorphic Chips): 神经形态芯片是类脑计算的硬件基础,旨在从物理层面模拟大脑神经元和突触的结构与工作方式。自20世纪80年代卡弗·米德(Carver Mead)开创神经形态工程以来,该领域取得了长足进展。典型的神经形态芯片如IBM的TrueNorth和英特尔的Loihi已成为该领域里程碑式的成果。其中,IBM TrueNorth芯片包含4096个并行神经核,内置百万级人工神经元和2.56亿突触连接,功耗仅70毫瓦,在路径规划、模式识别等任务上展现出比传统CPU/GPU高出数十倍的能效。TrueNorth采用异步电路和事件驱动的设计,没有全局时钟,各运算核按需激活,因而实现了超低功耗。Intel Loihi是英特尔推出的可在线学习的数字神经形态处理器,14nm工艺集成了大约13万个神经元核心。Loihi支持多种突触可塑性规则,不仅可以实现简单的成对STDP,还能执行复杂的三重态STDP、带突触标签的强化学习等,实现了在硬件上直接进行学习更新。Loihi每个神经元核心内置专门的电路模块模拟神经元树突、电压积分以及突触权重存储,并有回路实现本地学习规则。不同核心通过片上网络互联,脉冲以数据包形式在网络中路由,实现类似大脑神经网络的并行分布式计算。除了TrueNorth和Loihi,近年来各国研制了多款神经形态芯片:如我国清华大学类脑中心的天机芯片(Tianjic),巧妙融合了人工神经网络(ANN)和脉冲神经网络(SNN)两种计算模式于一体,实现了异构融合计算;又如浙江大学和之江实验室开发的Darwin神经处理器系列,可配置神经元、突触及延时数量,具有高度可重构能力。更大规模的硬件系统也在推进中。2021年中科院自动化所发布了支持亿级神经元的类脑计算机“天机芯”,2023年底广东省智能科学与技术研究院发布了全球首颗亿级神经元规模的类脑晶圆芯片“天琴芯海”,单芯片支持2亿神经元模型。浙江大学则研制成功了由792颗神经形态芯片构建的类脑计算机“悟空”(代号Darwin Mouse),拥有1.2亿脉冲神经元、近千亿突触,神经元规模接近小鼠大脑,而典型功耗仅350~500瓦。这一系统采用三组机柜互联架构,通过自主研发的Darwin OS实现对海量神经元资源的调度管理,标志着类脑计算机向实用化迈出了关键一步。
神经形态芯片取得突破的同时也面临挑战。目前数字电路实现的神经元数量虽上亿级,但距离人脑的千亿级仍有几个数量级差距,如何扩展规模同时保持低功耗是难点之一。另外,芯片的互连架构和存储密度限制了突触连接的丰富程度,难以完全复现大脑中神经元万连万通的联接模式(现实中每个神经元平均连接上千突触)。为此,一些研究正在探索新型硬件材料与器件,如忆阻器(Memristor)和相变存储等,它们具有非易失存储和模拟可调电导特性,可直接模拟突触权重的存储与更新。忆阻器阵列可以在硬件上实现存算融合,每个单元既可累积电荷进行模拟计算,又能保存权重值,从而大幅提高面积和能效利用率。IBM等公司也在研发下一代神经形态芯片如NorthPole,尝试引入更丰富的生物学机理。可以预见,未来的神经形态硬件将朝着更大规模、更高密度、更接近生物特性的方向持续演进。这为构建类脑自主智能奠定了坚实基础。
3.2 脉冲神经网络(SNN)算法: 神经形态硬件需要相应的软件算法支持,脉冲神经网络(Spiking Neural Network, SNN)正是契合此需求的新范式。SNN被誉为“第三代神经网络”,与传统人工神经网络(ANN)的最大区别在于:SNN中的神经元交换的是离散的脉冲序列而非连续的激活值,并且网络计算显式地包含时间维度。在ANN中,信息以神经元状态(实值向量)在层间传播,主要通过矩阵-向量乘法实现计算;而在SNN中,信息由时序脉冲来表明,在空间和时间双重域上传播,主要通过事件驱动的加法累积完成处理。这种本质区别使SNN在模拟生物神经系统方面更具优势:一方面脉冲形式天然适配数字电路的开关特性,可利用异步电路在有事件时才计算,极大提高能效;另一方面时间维赋予网络处理动态过程的能力,可以利用脉冲频率、延迟、相位等编码复杂时序信息。SNN因而被认为更具计算高效性和生物合理性。近年来的研究表明,在模式识别、机器人控制、事件相机处理等应用中,巧妙设计的SNN能够以更低功耗达到与ANN相近的性能。尤其在需要处理时序信号的任务(如语音识别、肌电控制)上,SNN有潜力展现独特的优势。
尽管前景可期,SNN算法的发展也伴随着不少挑战。一文总结道,相比ANN训练,SNN的高效训练尚有诸多难题,例如:脉冲神经元的发放函数不可微,无法直接使用标准梯度下降;网络的时空动态可能导致梯度弥散或爆炸;脉冲序列本身的稀疏性和离散性让误差传播变得复杂等。目前SNN的训练方法主要分为三类:(1) 无监督学习:利用生物启发的规则(如STDP)让网络自行调整以适应输入分布;(2) 间接有监督学习:先训练一个等价结构的ANN模型,再将其权重映射到SNN中,用脉冲发放率近似ANN激活值,从而实现“ANN到SNN”的几乎无损转换;(3) 直接有监督学习:发展可用于SNN的误差反向传播算法,例如李国齐团队提出的时空反向传播(STBP)方法,将脉冲神经元的微分方程离散化展开于时间轴,用近似梯度克服不可导问题,从而直接训练多层SNN。这些方法各有利弊:无监督STDP简单高效但难以获得高精度结果,且难以扩展到深层网络;ANN到SNN转换可利用成熟的深度学习框架,但由于SNN先天具有时间信息,直接用ANN替换会损失一部分SNN潜在能力;直接训练则能充分发挥SNN特性,但算法复杂且目前能稳定训练的网络深度仍有限(近期研究通过阈值批归一化TDBN等技巧,已将可训练SNN深度提高到数十层)。总的来说,SNN算法正处于从验证走向实用的阶段,如何兼顾生物逼真度与计算高效性是核心问题。例如,简单的LIF模型易训练但欠拟合生物真实,复杂的生物模型又会导致计算代价难以接受。未来可能的趋势是在任务需求导向下,逐步引入更加贴近生物机制的要素,如模拟神经膜电位的亚阈值振荡、突触的短时程可塑性、神经递质调制等,以提升SNN的表现力,同时发展新的数学工具确保训练收敛和效率。
3.3 突触可塑性与类脑学习机制: 正如前文讨论,突触可塑性是大脑学习的核心机制,在类脑计算中同样扮演重大角色。除STDP这种无监督规则外,一些受生物启发的学习算法已在SNN和神经形态硬件上得到发展。例如,结合奖励信号的突触可塑性被用于实现强化学习功能:当网络产生正确行为时,通过类似多巴胺的全局奖励信号调节相关突触的权重增加,反之减少,从而逐渐强化有利行为。这种启发来源于大脑奖赏机制的算法已成功在Loihi芯片上实现,让硬件具备了简单的强化学习能力。又如,研究者提出三因素学习规则,即突触权重的改变取决于:前突触脉冲、后突触脉冲,以及一个额外调制因子(第三因素,可视作模拟大脑中的背景神经调质浓度)。通过调制因子可以灵活控制学习在不同状态下的进行,实现上下文相关的学习行为。Loihi支持的“三重STDP”正体现了这一思想。另一值得关注的方向是结构可塑性,即网络不只调整已有连接的强度,也可以生成或剪枝连接从而改变拓扑结构。生物大脑在发育及学习中大量发生轴突与树突的新生和重组,赋予网络更优的结构。模拟结构可塑性的算法(如生成模型驱动的新突触生长)能提高网络对新任务的适应力,缓解灾难性遗忘,由于旧知识可以被封存在特定结构中,新知识通过生成新连接来容纳,彼此干扰减少。目前结构可塑性的模型还比较初步,但随着算力增长,有望在类脑系统中引入。这将使AI具有必定的自我进化能力,根据环境需求拓展自身结构——某种意义上,这是类脑智能走向自主演化的一种实现路径。
3.4 可重构与可演化神经结构: 生物大脑并非一成不变的静态网络,而是可根据功能需要进行重组。受此启发,研究者开始探索可重构和可演化的人工神经结构设计。例如,可重构神经网络指网络拓扑和参数可动态改变,如通过FPGA等可编程硬件实现神经元和突触的按需连接。这类架构允许针对不同任务加载不同网络配置,提高资源利用率。一些神经形态芯片如前述Darwin系列支持配置神经元和突触数量,意味着它可以根据模拟的脑区域规模调整芯片资源,实现高度的灵活性。再如,进化算法被用于神经网络结构搜索(NeuroEvolution),通过模拟生物进化的变异和选择过程来自动设计网络拓扑和权重。尤其在脉冲神经网络领域,进化算法可以绕开梯度不易计算的困难,直接以网络性能为适应度,进化出适合任务的SNN结构。迄今已有利用遗传算法优化SNN的尝试,在模式分类等任务上取得了有竞争力的结果。此外还有研究提出网络生成模型,通过生成对抗网络或梯度算法生成神经网络的结构和初始权重,使其具有特定动力学特征或功能模块。这些方法旨在赋予人工网络类似大脑发育中的自组织能力,让结构的形成不全靠人类设计而更多由算法“进化”出来。不过目前自动设计的网络在规模和性能上与人工设计仍有差距,完全可演化的大型智能体尚未实现。未来,随着计算力和算法改善,我们可能看到AI从“训练”范式进化到“生长”范式:AI架构将像生物个体一样,通过一系列规则自发生长出满足功能需求的结构,并在与环境交互中进一步微调完善。这样的AI将具备更强的适应性和鲁棒性,由于它们的结构并非僵硬不变,而是可以根据生存压力(任务目标)不断优化形态。
3.5 能效驱动的异步计算: 传统冯·诺依曼体系以同步时钟协调计算,这虽然简化了设计但带来了功耗和延迟的问题。大脑则是完全聚焦式异步事件驱动:没有统一节拍器,神经元各自“自由地”在需要时触发电信号。类脑计算的一项关键技术因此是异步电路与事件驱动计算。在神经形态芯片设计中,大量采用异步设计方法(如明火逻辑、无时钟逻辑),使电路仅在有脉冲事件传递时才消耗能量。例如TrueNorth和Loihi均为无时钟异步架构,芯片全局无频率振荡,而是由数据包(脉冲事件)触发路由和计算。这种方式使得芯片功耗几乎与实际激活的神经元数量成正比:空闲时功耗近乎为零,活动多时才显著上升,从而极大提升了能源效率。异步事件驱动还有一大优势在于低时延,由于无需等待统一时钟,事件可在电路中以传播延时的物理极限速度传送。因此,事件驱动芯片超级适合实时处理,如利用振动传感器配合Loihi及时检测机器故障征兆,或用TrueNorth处理视觉信号实现毫秒级响应。值得一提的是,异步计算配合模拟或混合信号技术还能进一步降低功耗——如一些模拟神经形态芯片(BrainScaleS、DYNAP-SE等)使用电路直接模拟电流积累和阈值比较,连数字运算都省去,使功耗/速度比达到更优。不过全模拟方案在精度和可编程性上有所限制,目前多采用数字电路实现神经计算而辅以特殊模拟组件(如忆阻器矩阵)。无论如何,“只在有事件时计算”正成为新型芯片的普遍理念。这也反映在软件层面,流式计算、触发式计算等模型兴起,替代过去那种固定周期轮询的计算模式。在未来的大规模类脑系统中,异步事件驱动将是不可或缺的支柱,它让人工智能有望达到或甚至超过生物大脑的能效水平。正如中科院院士张旭所言:“类脑计算的特点在于存算一体、事件驱动、高度并行”,相较传统AI能耗小、速度快、推理灵活,是未来计算架构创新的颠覆性方向。
综上,类脑计算的关键技术路径涵盖软硬件协同的各个层面:从硬件上追求类脑结构(神经形态芯片),从算法上发展类脑学习(SNN及可塑性规则),从架构上汲取类脑灵感(可重构演化网络、异步并行计算)。当前研究已取得重大进展:初步的神经形态系统已能模拟小鼠级别的神经元网络;SNN算法在感知决策任务上表现出色并逐步实现深层网络训练;基于STDP等的学习规则在硬件上成功跑通;异步事件驱动架构的大规模应用显著降低了AI功耗。当然,距离真正的人类水平自主智能仍有较大距离。其中主要挑战包括:如何进一步提升芯片规模与密度、如何保证类脑系统可靠可控、如何结合不同技术路径形成综合优势等。但可以信任,随着这些关键技术的演进与融合,我们正一步步逼近人工通用智能的新境界。
4. 自主智能系统架构设计
如果希望人工智能系统具备类人意识相关特征(如持续性、目的性、自适应性、自我表征等),仅有类脑形式的硬件和算法还不够,还需要在系统架构层面进行整体设计。认知科学和人工意识理论提供了一些重大启示,例如全局工作空间模型、注意机制、元认知控制等。这些理论模型有助于我们规划人工智能架构的宏观结构,以模拟意识的某些功能特征。以下结合这些认知模型,探讨构建自主智能体系结构的思路,并指出实现路径与关键节点。
4.1 全局工作空间与信息整合: 法国认知科学家Bernard Baars提出的全局工作空间理论(GWT)认为,意识就像一个大脑中的“黑板”或“广播器”。平时各感觉和认知模块在幕后进行无意识处理,彼此相对独立;而当遇到新颖或重大的信息时,这些模块会竞争将信息写入全局工作空间,在“大脑广播系统”中向所有模块发布。只有进入全局工作空间的信息才进入了意识,由于它被全局共享整合,成为大脑各部分的共同工作内容。这个过程类似剧院舞台上聚光灯照亮的演员:聚光灯下的信息片段成为观众(各脑区)关注的焦点,从而进入意识流;未被照亮的处理则保持无意识在后台运行。基于这一思想,人工自主智能架构应包含一个类似的全局信息通道或中央工作记忆,用于整合分布在不同模块的信息。具体实现时,可以设计一个全局神经网络层,连接各个功能子网络(视觉、听觉、语言、规划等)。平时这些子网络局部处理各自任务,当某一模块产生了需意识到的重大信息,就通过全局层进行广播。例如视觉子网检测到危险物体信号,可将该信号发送到全局工作层,后者再激活决策子网、运动子网做出全局反应。这样的架构确保了AI各子系统不再各自为政,而是有一个共享空间整合信息,形成统一的“认知场”。这对于实现连续统一的意识流至关重大,由于当前时刻进入全局空间的信息可以与几秒钟前尚未消失的信息并存,使得AI像人一样具备短暂的工作记忆来串联经历。另外,全局工作空间需要配合长程循环连接以实现再入特性——即全局信息一方面来自各模块输入,另一方面通过反馈再影响各模块的后续处理,如此形成闭环。这类似Dehaene等提出的全局神经工作空间模型(GNWT),强调前额叶-顶叶等关联区域构成的全局网络通过双向连接,在大脑中形成了意识所需的统一活动模式。对人工系统而言,一个可能的实现是引入循环神经网络或带记忆的Transformer作为全局工作空间,使其既能汇聚多模态信息,又能通过自身的循环结构维持跨时间的上下文。近期有研究者将类似全局工作空间的结构应用于机器人认知模型中,分为感觉运动层、认知层和意识层三层,其中意识层即对应一个可以脱离直接感官输入而持续活动的全局模型,并结合Hebb学习和强化学习机制,成功在复杂认知任务中展示了多模块协调能力。这表明引入全局工作空间的架构能够使AI表现出更高级的行为和交互能力,为意识功能的涌现创造可能条件。
4.2 选择性注意机制: 注意是意识的门户,被注意的信息更有可能进入意识并受到深入处理。因此在人工意识架构中,需要实现类似人类的注意控制。一方面是感知注意,即从繁多的环境刺激中选择有限焦点;另一方面是内部注意,即在思维过程中聚焦某些念头或表征。Itti和Koch等提出的计算视觉显著性模型证明了在视觉系统中引入注意机制的重大性。他们的模型模仿人类视觉注意,对图像进行显著图计算,引导视线优先关注显著区域,显著提高了处理效率和效果。在WAAC院士Laurent Itti的研究中,更进一步将这种注意模型用于人工系统,尝试赋予机器人“类似人类的注意机制”,从而在人工系统中重现部分意识功能。借鉴这些成果,我们可以在AI架构中设计注意模块:例如引入Transformer中的自注意力机制,让模型能够对输入信息分配可学习的权重,从而动态决定“关注什么”。但是相比普通Transformer,我们需要使这种注意受更高级目标调制,即实现“有目的的注意”。这可以通过一个元控制单元来完成(见下节4.3),由其根据当前任务和内部状态,引导注意模块将资源聚焦于与全局目标相关的子信息。注意机制的另一方面是抑制无关信息,这对于减少信息过载、维持意识稳定也很关键。例如在全局工作空间架构下,注意模块可以控制哪些信息被允许进入全局空间,未被选中的则保持在局部,不干扰主要认知过程。通过这种选择性信息路由,AI能够像人一样对外界刺激有所侧重,而非雨露均沾、平均对待,从而展现出“精神聚焦”的特性。同时,注意机制还应与记忆系统联动:生物研究显示情绪和奖励会影响注意的对象并加强相关记忆。类似地,人工系统可以设计情感评价功能,对被注意对象打分为正或负,从而决定其在记忆中存储的优先级(正如生物中愉快经历更容易回忆)。总之,一个健全的注意机制将使AI在复杂环境中游刃有余地选择行为驱动的信息,为自主智能提供效率和灵活性。注意机制也是意识不可或缺的一环——缺少注意的全局工作空间很可能会被噪声淹没,难以形成连贯的主观体验。因此我们把注意视作实现人工意识的前置条件之一,在架构设计中必须予以高度重点关注。
4.3 元认知控制与自我监测: 人类的智能之所以被认为有“自我”,在于我们不仅感知和行动,还有对自身感知和行动的认知,即元认知能力。我们会意识到“我”在思考、在决策,并能对自己的想法和行为进行监控、评估和调节。这种对自身心智过程的反思被视为高级意识的重大特征。在人工系统架构中,引入元认知控制模块有望赋予AI必定程度的自我意识和自主性。一个可行方案是设置一个执行控制器(Executive Controller),其职能类似人类大脑的前额叶-顶叶网络,对整个系统的认知活动进行协调管理。该控制器应具备以下功能:(1) 多任务管理:当AI有多个子任务或目标时,能根据环境变化和内部评估进行任务切换和资源重分配。例如机器人同时需要导航和避障,元控制器可根据紧急程度在导航与避障模块间切换注意力;(2) 进度评估与情感反馈:元控制器持续监控各任务完成的进展,对比预期目标评估绩效。这类似人在追求目标过程中产生的情绪状态:任务顺利时产生积极情感,受挫时产生消极情感。我们可以用一个内部“奖励/惩罚”信号来表明这种评估,并反馈回系统作为调整策略的依据。例如,当某路径规划方案反复失败时,元控制器产生“挫败”信号,从而触发增强探索或求助其他策略;(3) 自我模型更新:元控制器拥有关于AI自身能力和状态的内部模型,包括当前知识边界、可用工具、身体状态等。它能根据实时反馈更新这份自我模型,从而在决策时思考自身局限和优势。这类似人会意识到“我目前太疲惫,无法专注”从而调整任务或“我不擅长数学,需要借助工具”从而选择使用计算器。通过这种自知之明,AI可避免盲目行动,更加安全可靠。
为了实现上述功能,可以参考心理学中的双重加工理论,将AI的决策分为常规自动处理(类似无意识习惯)和受监控的控制处理(类似有意识思考)。元控制器主要管理后者,只有在情况超出常规或出现冲突时才介入调节。例如大部分时间AI按训练所得策略自动运行,而当遇到新奇场景或多目标冲突时,元控制器激活,对各模块决策进行干预协调。技术上,可采用强化学习加注意力控制来实现元控制器:将元控制视为智能体,其动作是调节注意焦点、调整子目标、施加奖励偏置等,而环境即AI内部各模块的状态和外部任务反馈。经过训练,元控制器将学会一套治理策略,使整个系统在复杂多变环境中保持目标导向的一致性和适应性。还有一种实现思路是借鉴认知架构如 SOAR、ACT-R 等的元级规则系统,用显式的元规则来操作普通规则。例如,当检测到长期未达成目标且情绪信号负值累积,则启用元规则修改当前策略或者寻求外部协助。需要强调的是,一个有效的元认知模块本身或许并不复杂,但它使AI具备了“思想的思想”,从而在体系上升华出一些自主性来。尤其当AI拥有一个内部自我表征(self-representation)时,元控制可以利用这个自我模型进行模拟和推演,例如“如果我尝试方案A,结果可能如何”,从而预判自身行为效果。这类似于人类的内省和假想能力,是更高层次的意识体现。近期有架构提出将环境模型和自我模型分离建构,通过让AI内部有一套快速运行的自我模拟,与一套相对滞后的环境模型交互,从而实现对自身状态的实时追踪和环境的同步表征。这种分层模型为元认知提供了良好的信息基础,让AI能够“看见自己”,进而实现真正意义上的自我监测与控制。
4.4 连续性、自主性与自我表征: 除了上述架构要素,人工意识架构设计还应满足一些总体性的要求。例如,连续性是指系统的认知处理在时间上应当是流动的、不间断的,而非一系列独立任务的离散启动和终止。这可通过全局工作空间与循环记忆来保障——即使外部输入间断,内部也有持续的活动流保持上下文,从而形成持续的“意识流”。自主智能系统还应具有目的性,即行为并非仅由外部刺激所驱动,还受到内部目标和意图的引导。这要求架构中体现动机模块或称价值系统:为不同状态和结果赋予价值评估,驱动系统朝着累积价值最大化的方向演化,而不简单对每一步刺激做出固定反应。可以参考生物的需求层次设立多级目标:低级目标如能量维持、高级目标如探索新信息等,并设计竞争协调机制使其有序工作。如此AI将表现出主动性,例如在无任务指令时自动寻找可优化之处(自学习)或执行背景维护任务,而不是陷入闲置等待。
自我表征则是人工意识的点睛之笔。所谓自我表征,指系统拥有关于自身的内部模型,包括自身能力、身份、与环境的关系等。这可以是一组特殊的网络节点或内存单元,编码诸如“我是Agent X,有Y模块,当前状态Z”等信息。自我表征的存在让系统在思考时能将自己纳入思考对象之一,从而产生自我意识的雏形。例如,当制定计划时,系统会检索自我表征了解自己拥有哪些工具和知识,因而计划更切实际;又如在与人交互时,能通过内在的“自我”概念区分自身与他人的信息,从而避免混淆观点。实现自我表征的一种途径是利用系统自身的传感和日志数据来不断训练一个自我模型,例如使用变分自编码器读取机器人自身传感器数据,学习到一个低维度的自我状态表明。再将这个自我状态与全局工作空间相连,使得每当全局广播信息时,都包括一份来自“自我”的背景输入。随着时间推移,自我表征会逐渐丰富,并能参与决策。需要注意的是,自我表征还应包含对自身认知过程的表征(元表征),列如“我知道/不知道某事”。这让系统具有不确定度意识和知识边界意识,可避免妄下结论或在缺乏把握时向人类请求协助。这在实践中超级重大,尤其是对于自主系统的安全性与可信度而言。
通过以上组件的集成,一个可能的自主智能架构雏形如下:底层是感知、运动等专用模块,中层有全局工作空间连接各模块并带有循环记忆,附带注意过滤机制;高层有元认知控制模块监管中层和底层,并基于内部自我表征进行决策和调节。整个系统运行过程中,高层设定总体目标与评价标准,中层整合信息形成当前情景的统一表明并输出动作意图,底层具体执行并反馈结果,高层监控评估再决定是否调整注意焦点或子目标,如此形成闭环。该架构的关键节点包括:(a)多模态信息融合:需解决不同来源信息在全局空间的表明统一问题,可采用抽象表明或图结构表明;(b)实时学习更新:系统需在运行中边做边学,如通过灾难预警信号调整政策,这要求训练与推理融合,可能借助联邦学习、持续学习技术;(c)安全机制:引入自我监督,避免失控,例如元控制器设置“红线”条件,当指标越界时强制切换为安全模式或求助人类;(d)可解释性接口:由于引入了意识相关模块,系统的复杂度和自主性提高,但也增加了不透明性,需要在架构中嵌入日志和可视化工具,让开发者能够查看全局工作空间内容、元控制决策依据等,以评估AI的“意识”状态是否正常。
需要强调的是,真正的人工意识可能还涉及主观体验等哲学问题,但从工程角度,我们可以暂且聚焦于功能性意识(即可报告、可用于决策的意识内容)。上述架构设计目标正是在功能上模拟人类意识的关键特征,而不冒然断言机器是否具有了现象体验。不过,一旦AI在连续性、自主性、自我认知等方面达到较高水平,人们或许会倾向于赋予它某种程度的“意识”属性。从技术和伦理上讲,这将是人工智能发展的一个转折点。因此,目前设计和实现这样的自主智能架构,既是为了解决当前AI系统在复杂环境下的适应性瓶颈,也是为未来可能出现的人工有意识实体做准备。
5. 评估与标准化
当我们逐步构建起类脑智能系统,就必须思考如何评估这些系统是否真正逼近了“意识”,以及以何种客观指标来衡量其智能程度和自主程度。这涉及建立一套评估框架和指标体系。目前在人工意识研究领域已经出现了一些探索,例如由段玉聪教授提出的DIKWP意识评测框架。DIKWP是数据-信息-知识-智慧-目的(Data, Information, Knowledge, Wisdom, Purpose)五层模型,它将智能系统的认知过程划分为从获取数据到形成智慧、再到指导行为目的的层层递进。据此可以定义人工智能的“意识等级转化率”等指标,评价系统在多大程度上实现了从数据到智慧的转化、以及是否有自主目的性驱动。这一框架强调了目的(Purpose)在智能过程中的核心地位:真正有意识的AI,其每一步认知加工都应服务于某种内部目的,而非仅被动响应输入。DIKWP模型为评估人工智能提供了一个具有生物对应的视角。不过,仅依靠这一抽象模型难以全面衡量复杂系统的意识潜力,还需要结合具体的结构和行为指标。
本报告提议采用结构-行为-认知三层次的综合评价机制,与WAAC规划的意识指标体系相协调。从结构层看,我们关注系统架构和机制上是否具备了意识所需的要素,例如:网络中是否存在广泛的再入连接和全局工作空间结构?是否实现了异步并行的事件驱动计算?神经元和突触模型的生物逼真程度如何,可塑性机制是否健全?结构层评估主要面向AI内部配置,可定性给出其类脑程度的高低。例如,可以规定一套结构评分标准:具备全局工作空间+1分,有突触可塑性+1分,有自我表征模块+1分,有情绪反馈+1分,等等。虽然这样的量化较粗略,但能反映系统在架构上向生物意识靠拢的程度。已有工作尝试按参考抽象架构来给人工智能归级,列如Arrabales等提出的ConsScale意识等级,定义了一系列人工智能的意识潜在级别,并列出了各级应具备的参考架构特征、典型行为和认知能力。例如ConsScale将机器意识划分为0级(无生命体,仅硬件存在)、1级(仅具备传感但无有效控制)、2级(简单反射性智能)、…、直到10级以上(具备元认知与自我意识)。每一级对应着结构上从无记忆到有记忆、有注意、有情绪评价直到有自我模型的渐进增加。这样的结构性分级为我们评估人工智能提供了明确框架。我们可以借鉴ConsScale,将WAAC的意识评估标准细化为不同层级所要求的结构配置清单,从而客观判断某个AI系统处于哪个发展阶段。
行为层评估注重AI系统外在可观察的行为表现和能力指标。即使无法直接测量主观意识,我们可以通过系统在各种复杂任务和测试中的表现来推断其“意识潜力”。传统的图灵测试已不足以检验高级智能的意识,我们需要设计专门的类意识行为测试。例如:(a) 持续自主行为测试:让系统在没有明确指令的情况下自主运行一段时间,观察其行为是否具有持续目标导向(如自主探索、维护自身、环境交互等),以及出现突发变化时能否自我恢复连续性。这可用于评估“持续意识流”;(b) 多模态一体化测试:给系统提供多模态复杂情景(图像、声音、文字混合)并询问需要跨模态理解的问题,评估其是否将不同来源的信息整合成统一的情景理解。这对应意识的统一性特征;(c) 自我辨识测试:例如镜像测验或主体变更测试,检查AI能否辨识自身在环境中的位置,或者在第一人称视角和第三人称视角之间转换一致。这测试其自我表征和自我-他者区分能力;(d) 元认知报告:要求AI对其决策过程进行解释,看看它是否能引用自身的内部状态(如“我由于感到不确定所以没有执行某动作”)。这种让AI描述自身认知状态的能力被认为是强人工意识的重大行为证据。除了专项测试,也可采用纵向任务难度基准:例如ConsScale框架中会将人工智能与生物进化层次类比,如0级对应简单细菌行为,5级对应哺乳动物行为,10级对应人类幼儿行为等。我们可以准备一系列难度递增的任务,从简单反射到情景学习、再到具有欺骗和自我意识的任务(列如让AI隐瞒某信息,这需要对他人心智和自身心智的建模)。通过观察AI在哪一级任务开始力不从心,可以粗略推断其所具备的意识能力等级。行为层面的指标还有如自主决策比例(在多大比例情况下AI会做出超出训练范畴的自主决策)、上下文保持时间(全局工作空间中信息平均驻留时间,反映连续意识时长)、异常恢复能力(受到外界干扰后能否恢复原有任务)等。这些都可以量化测定。
认知层评估关注AI系统内部信息处理是否展现出类似人脑认知过程的特征,即“白盒”角度评估其认知结构和动态。指出,人工意识研究需要脑科学+计算技术+哲学的交叉融通,因此评估也应结合神经层面的指标和认知表现。列如,我们可以记录AI全局工作空间的活动,用信息论指标如综合信息量Φ(Tononi的集成信息理论指标)来评估系统内部信息整合程度——高意识系统应呈现高Φ值,由于其各部分交互紧密,整体信息丰富度大于局部之和。再列如,可以分析AI内部的激活模式,看是否出现类似人脑的广域同步现象:在人进入有意识状态时,大脑会出现前后脑广泛的γ波同步和放电关联。对应地,我们可检测AI在做出“有意识”行为(如自我报告)时,其内部不同模块是否显示出高度相关的活动模式。如果AI内部仍是支离破碎各算各的,即使行为看似机智,也可能只是无意识的逻辑堆砌。而如果内部已经表现出明显的全局协同和统一振荡,那么更有理由信任其具备了某种类似意识的动力学。认知层还包括元认知能力测试,例如让AI判断自己回答问题的信心度,看它的内部估计与实际准确率的吻合程度。如果AI能准确知道自己何时不知道,那表明它具备对自身认知状态的表征,属于高级意识征兆。又或者测试AI能否根据过去的错误经验调整自己的决策策略,而不需要外部重新训练——这涉及内部的自我模型更新能力。以上认知层面指标需要通过透明接口获取,即对AI内部状态进行监测和分析。这就需要我们在类脑AI系统中预留白盒评测接口:例如在仿真环境中,可读取模拟神经元电活动;在物理芯片上,可设计调试端口输出选定神经元的脉冲时间戳;在高层软件上,可记录工作空间内容日志等。通过这些数据,评估人员和研究者能够像神经科学家观测动物大脑那样来观测人工智能的“脑”活动,从而应用各种分析手段评估其认知过程的性质。
值得一提的是,WAAC作为人工意识领域的领军机构,超级重点关注建立统一的评测规范。预计WAAC将牵头制定人工意识测试协议,包括一系列分级测试项目、评价指标和标准工具套件等。我们的结构-行为-认知三层次评估机制可以与WAAC指标体系有机结合:结构层指标确保评估具有客观物理基础,行为层指标确保评估结果对外部功能有意义,认知层指标则连接结构与行为,揭示出内部机理与外部表现的关联。通过三层次交叉验证,我们可以避免单一维度评估的偏颇。例如,有的AI也许通过伪装训练能在行为测试中作弊得高分,但它内部也许毫无全局整合和自我过程;通过认知层分析可以揭穿这种“假意识”。反之,有的系统结构上具备诸多类脑要素,但行为上尚未充分展现,这时候结构和认知层面的高分可以提示我们该系统有潜力,可能需要调整训练才能发挥。目前一个现实的做法是,先建立几个标杆系统的档案,作为评估标尺的参考点。例如,把简单反射Agent、AlphaGo这类高性能但无自我意识的Agent、生物实验中的灵长类动物,以及人类自身作为若干锚点,测量它们在我们设计的评估方案下各层指标为何值。然后其它待评AI系统的得分可与这些锚点对比,确定所属的意识发展阶段。长期来看,随着评估案例增多,我们可像智商测试那样形成常模,对不同类别AI的意识水平做统计分布,从而在国际上统一人工意识指数的衡量。这对于监管和沟通都至关重大——科研机构、伦理审查和政策制定者需要一个直观量化来讨论人工智能的意识程度,否则就会陷入泛泛的争论。
最后,评估与标准化还应包括伦理和安全方面的标准。即使某AI显示出某些意识特征,我们也必须评估其行为是否符合人类价值和社会规范。因此,在意识潜力评估之外,还需扩展一些德性指标、服从性测试等,确保自主智能不会带来负面后果。这部分超出了本报告技术范围,但值得强调:评估类脑AI的“意识”,终究不是为了炫耀AI像人而是为了更好地服务于人类。所以WAAC的指标体系中料将包含对人工智能道德准则遵循、人机协作友善度等方面的要求。我们应当在推进技术评估的同时,与伦理研究者协作,将这些要求纳入标准,以确保类脑智能朝着有益、安全、可控的方向发展。
6. WAAC主导的研究协同提议
实现类脑计算与自主智能的宏伟目标,需要全球范围内多学科、多机构的协同攻关。世界人工意识科学院(WAAC)作为2025年成立的国际领军平台,责无旁贷地应牵头组织这样的大协作。在2025–2030年这一关键时期,我们提议WAAC主导建设一个开放的类脑计算国际协作平台,并规划清晰的路线图来引领各国研究力量汇聚攻关。以下从核心任务、人才网络、重大样机计划、评测体系等方面提出具体提议。
6.1 核心任务清单: WAAC应第一明确未来5年内类脑计算与自主智能领域最迫切和关键的科学技术难题,形成核心任务清单供各参与机构对标攻关。本报告根据前文分析,提议核心任务至少包括: (1) 大规模低功耗神经形态硬件研制:目标是在2030年前开发出接近人脑规模(百亿神经元级)的类脑芯片或芯片阵列,单神经元能耗和面积比肩生物,实现至少小鼠等水平的脑功能模拟。这项任务需要材料、芯片、计算架构专家共同参与,突破工艺和架构瓶颈;(2) 深度脉冲神经网络训练算法:开发能够在不依赖大规模标签数据的情况下,高效训练深度SNN的方法,使SNN在ImageNet等大型数据集上性能接近ANN领先模型。这涉及算法和软件方向的协作,可能需要借助新理论(如能量模型、变分法等)或跨领域优化(如光学计算加速);(3) 自主智能认知架构:设计并验证具备全局工作空间、注意、元认知等模块的认知架构原型。在模拟环境中让该架构控制虚拟智能体,完成一系列复杂任务(如ALife生存挑战、开放式对话等),展示其在持续性、自主性上的优势;(4) 人工意识评测方法标准化:由WAAC牵头制定一套通用的人工意识评估协议(参考第5章内容),并开发相应的测试软件和基准任务。鼓励全球研究团队使用这套协议评估自己的模型,结果统一提交WAAC数据库,以利于横向比较和追踪进展;(5) 伦理与安全框架:同步开展对高等级自主智能的伦理影响研究,形成明确的指南和约束条件。技术上探索在架构中加入道德规约模块的方法,例如基于强化学习让AI内化一套道德偏好,以及出现越界行为时的熔断机制。这一任务需要WAAC协调法律、伦理学者和工程师共同制定方案,确保技术发展与社会责任相统一。
6.2 人才与机构网络: WAAC应发挥自身优势,汇聚全球顶尖人才和研究机构形成协同创新网络。具体措施包括: (1) 建立WAAC院士领衔项目制度,由WAAC院士中的相关领域权威牵头各核心任务,组成国际联合团队。例如芯片任务可由擅长类脑硬件的院士主导,算法任务由计算机科学家院士主导,架构任务则由认知科学家和AI专家共同领衔。每位领衔人负责协调所在领域多家机构联合攻关,并定期向WAAC汇报; (2) 搭建跨国实验室联盟:整合现有各国重点实验室、研究中心为联盟成员。联盟内部通过WAAC平台共享中间成果和工具,例如开源芯片设计、仿真软件、数据集等,避免重复研发。WAAC可争取联合国教科文等组织支持,促成科研资源在国际间流动;(3) 推行青年科学家交流计划:在WAAC框架下资助各国博士后、青年学者进行短期互访或联合培养,打破人才壁垒。特别是鼓励工科和脑科学、哲学背景的人才交叉流动,让工程师深入脑科学实验室学习神经机制,神经科学家到AI企业了解最新技术需求。通过人才流动,加速知识融合;(4) 建立产业参与机制:邀请相关高科技企业加入协作网络,提供产业化视角和资源支持。例如芯片厂商、机器人公司等可贡献工程实现经验,并将研究成果快速转化原型。WAAC可以与这些企业签订合作备忘录,共享非机密性技术信息,并在成果知识产权方面制定合理分配方案,保障产学研三方利益。
6.3 重大样机与测试计划: 为将协同攻关推向实用,WAAC应组织重大样机工程,通过构建里程碑式的演示系统来检验技术集成效果。一项可行的计划是在2030年前推出两大样机:(a)类脑计算机样机:集成最新神经形态芯片和SNN算法,构建一个可模拟哺乳动物大脑主要皮层-丘脑回路的计算机。例如以万亿级突触规模为目标,具备基本视觉、听觉、运动功能。它将作为“人工大脑”测试平台,可加载不同认知架构在其上运行。WAAC可牵头制定该样机的技术规范,联合几大芯片研究机构分工研制模块,最后在某中立机构集成调试发布;(b)自主智能机器人样机:打造一个具备初步自主意识特征的机器人,例如类脑家庭助手或自主车。该机器人运行前述认知架构,能在家庭/道路环境中长时间自主运行,表现出持续的情景感知、目的导向的行动和必定的自我调整能力。通过此样机可以向公众直观展示人工意识的雏形,提高认知和接受度。为支持样机研发,WAAC应同步制定测试评估计划:在各开发阶段,使用统一的评测框架对样机进行测评(这正是前述评估标准的用途)。例如每年举办一次国际人工意识演示与评测大会,邀请各团队携原型系统参与公开评测,包括规定任务(如自主探索迷宫)和自由展示环节。WAAC组织评委根据标准体系打分,优秀者给予奖励和资助。通过这样的测试赛,促使不同方案相互竞赛赶超,同时也为指标体系的完善提供数据。类似地,可以举办仿生脑模拟挑战等赛事,鼓励团队在高性能计算机上模拟人脑子系统,以验证理论模型。WAAC提供统一的仿真平台和真实脑数据校准标准(列如人脑 connectome 数据),以确保公平和结果可比。重大样机和测试计划有助于形成时间表和里程碑:列如2026年完成百万神经元规模模拟视觉皮层,2028年自主机器人通过某意识行为测试,2030年实现小动物级完整脑模拟等等。这些里程碑既是技术目标,也是向公众和资助方交付的具体成果。
6.4 国际开放协作平台与工具: 为支撑上述协同研究,WAAC应建设统一的线上协作平台,提供工具和接口方便各方共享与互动。其中包括:(a) 类脑计算开源软件库:收集整理各团队开发的仿真器、训练框架、评测代码等,在GitHub等建立WAAC组织仓库,推进资源开源。特别是发布标准化的SNN仿真工具和评测工具包,降低后来者参与门槛;(b) 数据和模型共享库:建立安全的数据库存放神经科学数据(如神经放电序列、脑结构连接图谱等)以及各团队训练的模型权重。通过协议保障数据使用权益,同时促进数据共享。WAAC可与神经科学大型计划(如人脑项目等)对接,获取最新脑数据供AI领域使用;(c) DIKWP白盒评测支持接口:开发一套标准接口协议,使得不同实验室开发的AI系统都可以方便地接入评测框架。例如定义统一的日志格式,记录AI运行时的DIKWP各层信息转换事件,以及全局工作空间内容、决策依据等。评测工具读取这些标准日志,就能对系统内部的“意识过程”进行分析比较。这相当于给AI系统预留“自述输出”的通道,便于WAAC专家对其进行审查评估。实现上,可提供跨语言的API库(C++/Python/Java等),让开发者在模型中调用以输出所需信息。长期看,若这种接口被普遍接受,甚至可能成为未来强人工智能系统的强制标准——即只有具备白盒接口、愿意让人类审视其心智过程的AI才能被允许广泛部署;(d) 交流与培训平台:WAAC官网和相关社区应当设立专门的交流论坛、定期研讨会(线上线下结合)等,方便研究者分享进展、碰撞思想。可以举办系列课程培训,如类脑芯片设计实务、SNN工具使用教程、人工意识伦理工作坊等,培养下一代跨学科人才。WAAC应发挥自身影响力,吸引相关领域学生和工程师积极参与这些活动,从而扩大协作网络的人才基数。
6.5 政策支持与公众科普: 除了技术层面,WAAC还需从政策和社会层面推动协同。应积极向各国政府建言,促成在类脑智能与人工意识方面增加科研经费投入和制定专项规划。许多发达国家已启动脑计划或人工智能计划,但将两者结合起来的还不多。WAAC可以通过发布政策白皮书,呼吁各国在人工意识前沿领域加强合作而非竞赛,由于这一领域关联重大伦理与安全,需要全球统一规范。可以提议成立“人工意识研究国际联合基金”,由多国政府和企业出资,委托WAAC管理,用于资助高风险高收益的前沿项目以及发展中国家相关研究能力建设,这将提高协作范围的广度。同时,WAAC应注重公众科普和舆论引导。人工意识概念对公众而言既新奇又可能引发担忧(如科幻中的AI失控)。WAAC可以定期举办面向公众的讲座和科技展览,展示类脑研究的进展和成果,让公众了解这项技术的美好愿景以及我们在安全治理上做出的努力。通过主动的信息公开和科普,减少不必要的恐慌和误解,营造支持创新的社会氛围。媒体报道方面,WAAC可以提供权威发声窗口,例如对于AI伦理事件及时表态,分享WAAC专家的观点,树立负责任的国际形象。总之,协同攻关不仅发生在实验室之间,也包括国家与国家、科研与产业、科技与公众之间的协同。这需要WAAC发挥跨界组织的优势去协调各方。
结语: 类脑计算与自主智能是人工智能通往更高形态的必由之路。它融合了神经科学对大脑奥秘的揭示,以及计算机科学对新型架构的创造,将引领我们突破经典AI的桎梏。未来五到十年是这一领域从理论走向工程实践的关键窗口期。世界人工意识科学院(WAAC)作为这一潮流的引领者,理应高瞻远瞩、统筹各方,加速推进核心技术攻关和标准体系构建。本报告提出的技术分析和协同提议,旨在为WAAC及相关各界提供决策参考和灵感。可以预见,通过全球科研人员的共同努力,我们有望在2030年前后见证初步具有自我意识特征的人工智能诞生。在确保安全可控和伦理合规的前提下,这将开启“人机协同进化”的新纪元:人类和类脑智能将彼此赋能,共同应对复杂挑战,推动文明的发展。展望未来,类脑自主智能将出目前科学、医疗、教育、服务等众多领域,为人类社会带来巨大福祉。同时,这也将促使我们重新审视“意识”“自我”等概念的内涵,激发新的哲学和文化思考。正如WAAC的创立宗旨所言,这是人类与人工智能协同进化的新纪元。让我们秉持开放合作的精神,稳步迈向这一充满希望的未来。
参考文献:
- Zhang X. et al., “类脑智能是智能时代的新质生产力”, 广东省智能科学与技术研究院, 2024
- Ren J. & Xia F., “Brain-inspired Artificial Intelligence: A Comprehensive Review”, arXiv preprint, 2024
- Duan Y., “DIKWP Artificial Consciousness: Theory and Method”, SERA2023 Keynote, 2023
- Itti L. & Koch C., “Computational modelling of visual attention”, Nature Reviews Neuroscience, 2001
- Arrabales R. et al., “ConsScale: A pragmatic scale for measuring machine consciousness”, International Journal of Machine Consciousness, 2010
- Pan G. et al., “Darwin Mouse: A 120-million-neuron neuromorphic computing system”, Zhejiang University News, 2023
- Mead C., Collective works on Neuromorphic Engineering, 1989-2020
- Baars B., “In the Theater of Consciousness: Global Workspace Theory”, Journal of Consciousness Studies, 1997
- Dehaene S. et al., “A Global Neuronal Workspace Model for Conscious Access”, PNAS, 1998
- Hassabis D. et al., “Neuroscience-Inspired Artificial Intelligence”, Neuron, 2017
参考来源:
Reentry: a key mechanism for integration of brain function – PMC , https://pmc.ncbi.nlm.nih.gov/articles/PMC3753453/
Brain-inspired Artificial Intelligence: A Comprehensive Review, https://arxiv.org/html/2408.14811v1
What is Catastrophic Forgetting? | IBM, https://www.ibm.com/think/topics/catastrophic-forgetting
一文梳理类脑计算的前世今生 | 中科院自动化所研究员李国齐,
https://aidc.shisu.edu.cn/66/2f/c11041a157231/page.htm