推荐序一 如何再造一个硅基大脑

洪 波

清华大学为先书院院长、生物医学工程学院教授

当今人类的生产生活已经被人工智能的浪潮裹挟,这不是第一次,也不会是最后一次。有智能行为的东西,很容易触动人类内心的好奇和同情。人们喜欢和自己养的猫狗互动,跟我们喜欢和GPT“胡乱”聊天,喜欢看机器狗摔倒爬起,其实是一样的心理。这种心理的背后深层次的原因,是人类总是试图认识自身的思维和行为,从心理行为层面,从生理机制层面,甚至是从计算机制层面。如果从计算机制层面搞清楚了,那再造一个硅基大脑就有希望了。

物理学家费曼说过:“我造不出来的东西,我就还没理解。”(What I cannot create, I do not understand.)反之,如果我们还没有理解,当然也就造不出来。要造出一个硅基大脑,使它像生物大脑一样有感知、有记忆、有决策、有行动,我们必须努力观察和发现生物大脑运行的机制,并把它们构建成数学模型,感知、记忆、决策和行动才能在硅基的计算机中复现。

这是一本很有雄心的书,作者林赛试图用10个数学模型来回答“生物大脑的计算机制究竟是什么”。这也是一本安静的书,不适合那些想从脑科学中“淘金”,拿去人工智能领域“变现”的匆匆过客。如果你稍有一点耐心,坐下来一两小时,试着读一章,你就会被其中有趣而深刻的故事所吸引,一定会在某个地方受到震撼,得到启发。不要担心数学模型的深奥,正文里没有一个公式,即使是附录里的公式也是极其克制而简洁的。

疫情防控期间,偶然的机会读了本书的英文版Models of the Mind,立刻被作者试图用10大数学模型总结大脑运行机制的雄心所打动。作者还用讲故事的方式,介绍了这些数学模型背后的科学家以及他们之间的互动,硬核模型背后又平添了人性的温度。湛庐能选中这本书翻译出版,对那些试图理解智能本质的人们是一件幸事。你尽可以把它当作一本大脑建模的“旅游攻略”,在其中走一遍会大开眼界,最重要的是,下次你想去哪个模型景点“深度游”的时候,就有了一张系统的文献地图和人物关系图。作者显然是计算神经科学领域的“资深旅行者”,对过去一个世纪脑科学和大脑建模的历史了解得很通透。

这个星球上有两种智能:生物智能和机器智能。生物智能是从自然界亿万年的生物进化中涌现出来的,是生命体为了自身生存,不断摄取环境中的物质和能量,自下而上自监督“训练”出来的,简单讲是靠投喂“物质”和“能量”得到的生物体内“活的”碳基的神经结构;机器智能是人类受到生物智能,特别是人类自身智能行为的启发,自上而下设计出来的,需要人为设定目标并监督“训练”。在当前阶段,机器智能主要靠人为提供的计算体系和海量数据,简单讲是靠投喂“信息”得到的计算机里“无生命”的硅基神经网络。这两者的差别是不言而喻的,我深信前者更加优雅,背后的数学模型也更加简洁。

我们通常高估了人类顶层设计的智慧,低估了自然进化的智慧。我们也一定高估了人工智能发展的快变量——算力和数据,低估了人工智能颠覆性发展的慢变量——自然界放在我们眼前的生物智能结构。“朝菌不知晦朔,蟪蛄不知春秋”,在自然进化的生物智能面前,人类就是“朝菌”和“蟪蛄”。这本书提醒我们,其实今天如日中天的人工智能就是在努力模仿生物神经网络的核心结构和动态规律,只是人工智能的快速迭代,模糊了背后的神经科学背景。

书中的10个模型可以分为两类:一类是功能输出型的大脑模型,这类模型对人工神经网络和人工智能的发展起到了非常直接的推动作用;另一类是数学抽象型的大脑模型,为脑科学研究提供了信息论、系统论与概率论的分析视角和工具。我重点提一下7个经典的功能输出型的大脑模型,它们在过去70年人工智能的发展历程中发挥了关键性的作用。

· 单个神经细胞的动力学模型。乌贼粗大的神经纤维给了科学家精确测量细胞膜内外电流的机会,再借鉴电子电路的思想,定量刻画了一个神经细胞是如何放电的,构建了带泄漏整合发放(Leaky Integrate-and-Fire,LIF)模型和霍奇金-赫胥黎(Hodgkin-Huxley,HH)模型,这成为后来的脉冲神经网络的出发点和依据。一个神经细胞虽然简单,但是离子通道丰富多变的动力学特性,以及神经细胞树突的丰富形态,为脉冲神经网络建模带来了极大的想象空间。

· 多层前向神经网络——感知机。把单个人工神经细胞拼接起来,形成多层结构,并发展出相应的学习算法,这样建成的感知机可以识别手写体数字,成为第一个有用的人工神经网络。感知机看上去像一个玩具模型,但它无愧于一个“顶天立地”的智能英雄,一方面开启人工神经网络的工业化应用,另一方面把图灵所提出的可学习可教育的机器变成了现实,使智能理论迈出了一大步。

· 模仿视觉大脑的卷积神经网络。把猫的初级视觉皮层简单细胞和复杂细胞处理图像边缘的机制,抽象为两个层次的图像卷积操作,并模仿视觉通路的层次化结构,不断重复这样的分层卷积,最终构建了能够识别复杂图像的卷积神经网络。这个多层结构几乎复制了猴子和人类的腹侧视觉通路。加上反向传播算法的发明,以及此后网络深度的快速提升,开启了基于深度学习网络的智能新时代。

· 模仿海马等大脑认知模块的循环神经网络。把记忆等大脑内生状态抽象为循环连接的神经网络,基于神经可塑性的赫布法则,把需要记忆或者临时处理的信息(及其序列),以吸引子的方式隐藏在复杂的网络连接系数中,构建出霍普菲尔德网络、玻尔兹曼机、连续吸引子网络等。这一升级,使人工神经网络有了动态的隐空间,网络的行为也变得更加灵活而智能。

· 大脑运动控制的群体向量模型。猴子运动皮层单个神经细胞总是偏好某个特定方向,大量运动脑区的神经细胞用放电频率来“投票”,共同决定了手的运动。在数学上,用一个简单的线性回归模型,就可以从一群神经细胞放电频率推算出猴子的手如何运动。这一模型虽然存在争议,但它几乎是脑机接口解码运动参数的标准算法,非常可靠。有时候我甚至怀疑,这是运动皮层神经细胞在粗暴算法的“逼迫”之下快速学习和适应的结果,而不是什么“解码”。

· 模仿生物奖惩学习行为的强化学习算法。生物体在环境中寻求奖励的过程是不断探索、不断更新预期的过程,大脑深部的神经细胞会根据预期误差的大小,释放适量的多巴胺,来指导生物体的下一步行动。这种机制对应的数学模型就是著名的强化学习算法——时间差分学习。如果把游戏终局时的奖励,通过深度学习网络投射到玩家当前位置的预期,强化学习会更加精准有效,于是就催生了DeepMind Alpha系列的各种超级智能。

· 生物神经网络“阴阳平衡”的机制模型。大脑是由千亿个神经细胞连接形成的复杂网络,这些细胞是如何协作,确保这个复杂系统不会崩溃的呢?背后是兴奋性和抑制性神经细胞之间的“阴阳平衡”。这两类神经细胞可能一直处于势均力敌的“拔河”状态,神经活动中观测到的所谓“噪声”和“震荡”实际上就是这两种力量来回拉锯。这种“拉锯”状态使得大脑可以快速有效地处理外界的输入。“拔河”力量失衡的大脑,就会出现癫痫或者其他精神疾病。

计算神经科学家大卫·马尔(David Marr)把生物智能的实现分为三个层次:功能概念、核心算法、物理实现。以上这些经典的大脑模型都有核心算法层面的突破。这7个经典模型的成功建立起码给我们两点启示:一是发现生物智能的核心结构是建立计算模型的关键,这些核心结构是自然进化展现在我们面前的智能奥秘,神经电生理记录、光学成像、光遗传学调控等技术方法已经打开了一扇扇门,我们所缺的只是专注和想象力;二是准确而优雅的大脑模型通常来自科学家的跨界合作,一方通常是神经生物学家、心理学家,另一方通常是物理学家、计算机科学家,或者是有工程训练的学者,这种跨界合作在今天的脑科学和智能科学领域都是稀缺的。

最后,分享几点对大脑建模以及类脑智能潜在方向的思考:

1.海马中的空间智能结构。海马是大脑深部相对原始的结构,但是几乎所有哺乳动物都依靠海马来建立空间概念,在环境中探索导航。人类海马还参与认知各种抽象关系,包括语言中的抽象概念。我们通常讨论的认知记忆,也与海马有关。DeepMind的人工智能研究机构长期把海马作为智能建模的重点,也产出了一些很有启发性的成果,值得我们关注和学习。任何具身智能体,都需要建立空间关系和序列关系,因此发掘和模拟海马的核心结构,是构建其智能底座的关键。

2.前额叶的决策智能结构。独特的前额叶脑区使得猴子、人类等高等生物具备了灵活应对环境、趋利避害的智能行为。目前大模型中的推理决策主要依赖训练得到的条件概率,是“呆板而莽撞”的,与人类根据风险和收益做出的智慧决策差距很远。已有脑科学研究初步揭示了前额叶进行灵活推理的神经动力学机制,但其尚未转化为通用的决策智能结构。

3.运动皮层和脊髓的核心结构。运动控制是具身智能体与环境互动的关键机制,目前的机器人几乎都是采用自上而下的物理设计来实现运动控制的,其灵活性和稳健性都很难适应真实世界的多样挑战,包括那些活灵活现的机器狗。自然进化产生的脊髓和运动皮层能够让人类应对任何复杂任务,甚至在短时间内学习全新运动技能。直到今天,我们还未完全掌握运动控制的神经机制,但有些研究已经展现了脊髓精细结构和动力学之间的微妙关系,值得开展类生智能转化开发。

4.神经可塑性与智能进化。生物智能之所以能够如此灵活,如此低功耗地运行,其奥秘最可能在于神经可塑性。当前人工智能大模型几乎都是先集中训练,得到固定的庞大参数,后将其用于推理。在推理中,神经网络的参数不会因为任务而发生自适应。人和动物这样的生物智能,其神经网络随时都在自适应地改变,网络参数甚至结构都是“液态”流动和“弹性”可变的。脑科学中最重要的赫布法则,正是描述了这种可塑性的基本规律:神经网络结构决定神经活动,但神经活动会反过来重塑神经网络结构。这可能是人工神经网络走向灵活和低功耗的突破口。

当然,我们在阅读一本关于大脑模型的书时,一方面要赞叹背后那些伟大头脑的想象力与数学抽象的艺术,另一方面又不能丢掉批判性思维和警惕心。正如统计学家乔治·博克斯(George Box)所说:“所有模型都是错的,但有些是有用的。”(All models are wrong, but some are useful.)认识到大脑模型的局限性,才能不断加深我们对大脑功能的理解,不断满足我们对心智的好奇;构建有用的模型,才能让我们离“再造一个硅基大脑”的目标更近一步。