互联网

追问专访·曾毅研究员|类脑智能可以进化出自我吗?

来源:互联网    作者:      2022年05月24日 15:50

导语:

类脑智能是人工智能和脑科学领域的重要研究方向,其关注在人脑启发下构建类脑结构,实现类人认知和行为功能。为了带大家深入了解大脑机制和类脑智能,我们将以类脑智能领域的问题进行追问,以多人联动的方式,带领大家了解类脑智能的原理以及目前的最新进展。

在之前的采访中,北京大学心理与认知科学学院研究员罗欢发起追问:“在人工智能、计算神经科学领域是否有抽象结构的学习?是否有基本的数学原理能够描述这个过程?”

本期我们采访了中国科学院自动化研究所研究员曾毅,曾毅研究员将带领我们了解类脑智能对人脑机制和功能的模拟及其发展潜能。按照惯例,曾毅研究员也提出了自己最想知道答案的一个问题,我们将在文末公布该问题。

Q:您好,可以为我们介绍下您目前的主要研究领域和方向吗?

曾毅:我主要的研究领域围绕类脑人工智能展开,具体讲是受脑在不同尺度的结构与机制启发,构建具有生物合理性和计算可行性的类脑智能,终极目标是实现在认知能力上可以比拟甚至是超越人脑的,但仍与人能和谐相处,有道德、合乎伦理的类脑人工智能。这是我的终生科学追求,我的实验室已经为此付出了10年的努力,并将持续再用几十年的时间研制具备这样能力的类脑认知智能引擎(Brain-inspired Cognitive Intelligence Engine),贡献于人与人工智能的和谐共生。

Q:目前类脑领域发展面对的主要挑战是什么?

曾毅:目前这个领域的挑战主要来自两方面。一方面是脑在面向不同认知功能方面的结构与机制仍然在不断探索中,基于已知的进展构建类脑智能的理论与技术模型仍然只能在部分认知功能的构建上取得阶段性的进展,而对于很多复杂认知功能以及智能的整体计算理论的支撑还远远不够。另外一方面是如何将来自不同尺度,脑启发的结构与机制通过计算建模进行整合,从而形成统一的智能理论框架。在某个尺度获得的结构与机制仍然是部分的、片面的,在将他们通过计算建模整合的过程中可能还缺失关键的科学细节。这需要人工智能的研究者同脑与认知科学研究者深度协同才能够取得实质性进展。

Q:人脑可以高度协调各种感知器官并且在这个过程中完成感知器官传回信息的计算,类脑智能是否有可能协调多种器官的信息并综合做出判断?

曾毅:真正的类脑智能正是这样做的,也可以说如果不是这样进行多感觉融合的综合决策,那就不是真正的类脑智能。我自己实验室的类脑人工智能模型的各种感觉模块是由局部的脉冲神经网络模型实现的,而多感觉信息的整合(视觉、听觉、触觉、嗅觉、味觉等)也是基于最基础的突触可塑性模型实现的。例如我们实验室实现了基于类脑脉冲神经网络的多感觉概念学习模型,使类脑智能可以像人一样进行基于可塑性机制学习和整合多感觉信息并在此基础上学习人类概念。

Q:人脑通过神经元传递信息和进行计算,和计算机实现运算的结构基础存在本质区别,如何让计算机实现像人脑一样的“认知”和“计算”?

曾毅:传统硅基的计算机体系结构和碳基的人脑确实在信息处理基础上存在较大鸿沟,但是这种鸿沟正在通过两方面的努力进行弥合。一方面是在软件层面,仍然可以在冯诺依曼体系结构的计算系统上模拟不同类型的神经元、神经网络环路及其编解码信息的机制与过程,不同类型的神经元及其内部的离子通道、不同类型的突触可塑性机制、不同类型的突触、不同连接模式的计算建模都成为了类脑智能的基础,这初步弥合了我们在讨论的本质区别。另一方面,现在正在迅速发展的神经形态计算已经为从硬件层面实现具备不同尺度神经信息处理结构与机制的硬件体系结构贡献了重要的可行性。真正弥合这种差异需要来自软硬件两方面的协同设计与实现。

Q:人脑可以不断学习和进步,类脑智能是否也可以不断进化?

曾毅:经过数亿年自然演化生成的人脑不但可以不断学习和进步,而且还在进行着我们几乎无法察觉的演化。自然演化的过程就是一个智能体在自然环境中不断适应不断优化的过程。我相信类脑智能不但可以,也只有通过这种方式才能够实现真正类人的智能。目前类脑神经网络已经有一些通过特定任务学习来自适应的调整神经网络结构的努力,甚至有些研究已经证明网络结构的自适应调整已能让神经网络很好的应对任务。而这方面的探索远远只是开了个头。

Q:如果类脑可以像人脑一样进行认知和计算,并且不断学习和进步,类脑是否有可能像人一样产生独立的意识?

曾毅:我认为类脑智能未来一定可以获得独立的意识,但这并不代表着只要类脑智能模型不断学习就能够在原始结构和机制上涌现出意识。人的意识仍然是以纷繁复杂的人脑意识核心神经环路与原理的支撑下实现的,能够以理解的方式整合来自各个感觉环路的信息并做出基于理解的决策,更重要的是以自我的视角感知环境、状态的变化并作出自适应。

类脑智能产生意识的出发点是自我模型,自我感知是源头,这也是为什么我们在构造类脑自我意识模型的时候会选择镜像测试作为首先突破的方向。不过需要声明的是:即使现在我们的类脑智能模型部署在机器人上帮助机器人通过了镜像测试,这也并不意味着类脑智能获得了自我意识。恰恰只说明了镜像测试很可能无法作为具有自我意识与否的黄金判断标准。意识的本质及具有意识的类脑智能研究都还在最初的阶段。

Q:目前正常的人类大脑可以存在并且持续不间断地工作至少五十年,有的甚至可以达到近百年,类脑智能如何保持长期稳定有效地工作?

曾毅:我想不断地学习与训练、不断地自适应不同环境下的不同任务、不断以不同的视角感知、决策、与人类互动,并以软硬件协同优化的方式演进是类脑智能的“生存“方式。

Q:如果类脑智能产生了意识,并且可以长期稳定的维持意识的存在,是否相当于存在了独立人格?我们如何应对类脑智能进展带来的伦理问题?

曾毅:类脑智能如果实现了真正意义的自我,在此基础上形成自我体验、自传体记忆、具有基于自我的决策和预测能力,以及反思的能力,那么类脑智能理论上也应能够形成独立的人格。但是具有自我的人工智能未见得对人类是危险的,因为自我感知、认知共情、情感共情恰恰是类脑智能对其他智能体,特别是人类产生真正意义的关切的基础。具有自我的类脑智能对人类很可能才是更安全的,例如我们最近受自我模型和认知共情启发实现的能够帮助其他智能体避免风险的类脑认知共情神经网络模型。但这有一个大前提,就是我们必须在类脑智能的研究初期就前瞻思考如何实现有道德,符合伦理的类脑智能。伦理道德不能以规则“灌输”的方式让类脑智能“遵守”,因为灌输的规则随时可以被修改。只有基于类脑智能的自我模型、认知与情感共情,以自主学习的方式习得的伦理道德才能够保证类脑智能真正具有伦理道德。

而对于类脑智能是否能与人类构成和谐共生的社会,问题不仅仅是如何实现有道德的类脑智能,关键问题还在于一旦类脑智能具备了一定水平的意识,具有自我反思能力,人类如何去对待这样的类脑智能。类脑智能发展初期,人们必然关注类脑智能如何习得人类价值观和道德,而在类脑智能发展出自我意识之前,人类必须对与类脑智能和谐共生提出人与类脑智能共生的伦理框架,这是我提出“和谐人工智能原则”的初衷。

Q:在之前的“追问”系列采访中,北京大学心理与认知科学学院研究员、北京大学麦戈文脑研究所研究员罗欢提出了下面的“追问”:

在人工智能、计算神经科学领域是否有抽象结构的学习?是否有基本的数学原理能够描述这个过程?

曾毅:应该说人工智能,特别是神经网络的核心就是结构学习,无论是对感知类、决策类的任务还是符号文本知识的规则学习。人工智能中有很多抽象结构学习的方法,抽象结构表征学习的基本数学原理至少包括:通过高度复杂的非线性变换提取数据中潜在的结构信息。根据统计学中贝叶斯概率推断预测未知的不确定性,由信息论评估模型学习到的结构表征所包含的信息量,再通过优化思想例如梯度下降来实现稳定的模型优化,在不断的预测和优化中学习到抽象和复杂的结构表征。此外,正则化方法/降采样技术在帮助抽象关键的结构特征能够起到防止过度学习的作用。


(文章为作者独立观点,不代表艾瑞网立场)
  • 合作伙伴

  • 官方微信
    官方微信

    新浪微博
    邮件订阅
    第一时间获取最新行业数据、研究成果、产业报告、活动峰会等信息。
     关于艾瑞| 业务体系| 加入艾瑞| 服务声明| 信息反馈| 联系我们| 合作伙伴| 友情链接

Copyright© 沪公网安备 31010402000581号沪ICP备15021772号-10

扫一扫,或长按识别二维码

关注艾瑞网官方微信公众号