艾瑞网

移动终端

怎么办?机器带来的新型知识我们无法理解

来源:网易科技报道    作者:      2017/4/21 15:44:36

导语:我们日益依靠能自行创造出模型来得出结论的机器,但那些模型往往超出人类的理解范畴,会以不同于我们的方式来“思考”这个世界。

5c62390680ab4e4c8f91b751b0e37a1820170421072157.jpeg

国外科技网站Backchannel撰文称,我们的机器如今拥有我们无法理解的知识。我们正日益依靠能够自行创造出模型来得出结论的机器,但那些模型往往超出人类的理解范畴,会以不同于我们的方式来“思考”这个世界。

以下是文章主要内容:

“海量数据的可用性,以及用来分析这些数据的统计工具,带来了全新的理解世界的方式。相互关系取代因果关系,即便没有一致的模型、统一的理论或者机械论解释,科学也能够取得进展。”

《连线》前总编辑克里斯·安德森(Chris Anderson)在2008年如是写道。当时这引发了一番激烈的争论。例如,有篇刊登在分子生物学期刊的文章问道,“……如果我们停止去寻找模型和假说,那我们所做的还是科学吗?答案显然应该是‘不。’”

但如今——与安德森的文章相隔还不到10年时间——该争议听起来很怪异。在我们全新的强大的网络化硬件的助力下,计算机软件的种种进展正使得计算机不仅仅能够不用模型(表达系统元素如何相互影响的规则集)就能运作,还能够生成自己的模型,尽管那些模型看上去可能不大像是人类创造的。随着各家科技公司纷纷“以机器学习为先”,这甚至在变成标准的方式。

我们正日益依靠能够自行创造出模型来得出结论的机器,但那些模型往往超出人类的理解范畴,会以不同于我们的方式来“思考”这个世界。

但这也带来了代价。如此引用异类智能,正引发我们对长久以来的西方传统中植入的假设思维的疑问。我们原来认为知识关乎在混乱中找出秩序来。我们原来认为知识关乎简化这个世界。现在看来我们似乎是错误的。认识这个世界或许需要我们放弃去理解它。

超出人类理解范畴的模型

在有关机器学习的系列文章中,亚当·盖特吉(Adam Geitgey)解释了基础内容,从中可以看出这种新式的“思维”:

“有泛型算法能够告诉你一组数据有趣的地方,而且你完全不必针对问题编写任何的自定义代码。你给泛型算法注入数据,而不是编写代码,然后它就会根据那些数据建立自己的逻辑。”

举例来说,你给机器学习系统提供数千个潦草的手写“8”扫描照,然后它会学习在新的扫描照中辨认“8”。它并不是通过得出我们所知道的规则(比如“8由上下两个圆圈堆叠而成”)来辨认,而是通过寻找以数字矩阵呈现的复杂的暗像素模式——对于人类来说这项任务颇为艰巨。农业中最近也有个例子:同样的数字模型技术让计算机懂得了如何去将黄瓜分类。

接着,你可以通过打造用软件模拟人脑处理信号的过程的人工神经网络,来让机器学习更进一步。不规则网络的节点会根据从与其连接的节点而来的数据进行开启或者关闭;那些连接有不同的权重,因此有的连接开启相邻节点的概率会高于其它的连接。尽管人工智能网络可追溯到1950年代,但它们现在才形成气候,这得益于计算性能、存储和数字运算的进步。这一日益复杂的计算机科学分支可能会引发这样的结果:经过如此多层神经网络的作用,深度学习在如此多不同的条件下根据如此多不同的变量得出大量的结果,人类会无法理解计算机自行打造的模型。

但这种模式是可行的。谷歌的AlphaGo项目正是这么击败世界排名第三的围棋大师的。给机器设计程序玩围棋可比让它去给黄瓜分类要艰巨得多,毕竟围棋潜在的变化数达到10的350次方;国际象棋潜在的变化数达到10的123次方,宇宙中有10的80次方个原子。谷歌的硬件配置也不算特别惊人:它只有48个处理器,外加8个图形处理器,这些刚好足够进行所需的运算。

AlphaGo接受了发生于人类棋手16万盘棋3000万步棋的训练,期间需要注意人类选手所采取的招式,以及理解什么才算合规的下法,以及其它的基本规则。通过使用深度学习技术来定义神经网络层识别出的模式,该系统训练自己理解怎么下获胜概率最高。

虽然AlphaGo已经证明自己是世界级棋手,但它并不能说出让人类棋手能够学习的实际原理。该程序并不是通过开发一般性的玩法规则来运作,而是通过分析特定棋局下怎么下成功概率最高。相比之下,IBM玩国际象棋的Deep Blue计算机则编入了一些有关好招数的一般性原则。正如克里斯托弗·科克(Christof Koch)在发表在《科学美国人》(Scientific American)的文章中所说的,AlphaGo的智能依靠的是其模拟神经元之间的数十亿个连接。它创造出的模型让它能够做出决策,但那个模型极其复杂,而且是有条件的。其巨量的应变计划带来的结果除了战胜人类之外,别无其他。

因此,如果你想要用你微不足道的大脑去理解AlphaGo为什么会选择了特定的一步棋,其“解释”很可能涉及加权连接的网络。那些连接会将其结果传递到下一层的神经网络。你的大脑不可能记得住所有的那些权重,即便它记得住,它也无法进行导致下一个神经网络状态的那个运算。即便它能够进行,你也不知道该如何去下围棋,或者说不知道AlphaGo是怎么下围棋的——只是内化人类棋手神经状态的运行原理,并不能帮助你理解他为什么会下特定的一步棋。

围棋只是游戏,因此我们跟不上AlphaGo的决策路径或许并不紧要。但如果是说神经网络将能够让我们分析双基因疾病中基因的交互呢?如果是说使用神经网络来区分大型强子对撞机中单个粒子和多个粒子的衰变模式呢?如果是说使用机器学习来帮助辨别政府间气候变化专门委员会所追踪的20个气候变化模型中哪一个是最准确的呢?这类机器可给我们带来很好的结果——例如:“恭喜!你刚发现了希格斯玻色子!”——但我们无法跟上他们的“逻辑推理”。

很显然,我们的计算机在辨识、发现模式和作出结论的能力上已经超过了我们。那是我们使用它们的其中一个原因。现在我们能够让我们的计算机将模型按需做得尽可能地大,而不用缩小现象来迎合相对简单的模型。但这似乎也意味着,我们所知道的东西要依靠机器的输出结果,而那些机器的具体运作我们却是无法跟上,无法解释,无法理解的。

自我们最早用木棍来刻凹痕以来,我们一直都是利用世界上存在的东西来帮助我们理解这个世界。但我们从未像现在这样依靠并不符合人类逻辑推理模式的东西——我们知道每一个凹痕代表的是什么——我们无法后续去理解我们没有知觉的合作伙伴是如何得出那些答案的。如果说知识总是意味着能够解释和确证我们的真正信念——古希腊哲学家柏拉图提出的概念,已经有两千多年历史——那我们要怎么去理解一种新型的知识呢?要知道,这种知识不仅仅是难以去解释确证,而是无法解释确证。

两个著名模型

1943年,美国陆军工程兵部队派意大利和德国的战俘去打造史上最大比例的模型:200英亩大,表示美国41%连通密西西比河的国土面积。到1949年,它被用来进行模拟实验,以判断如果河水从这个点或者那个点涌入,城镇会发生什么状况。该模拟试验被认为帮助防止奥马哈市在1952年出现洪灾,要是没有它,洪灾可能会导致该城市遭受6500万美元的经济损失。事实上,有人甚至表示那些模拟实验要比现有的数字模型更加准确。

水还是另一个著名的物理模型的重要组成部分:新西兰经济学家奥尔本·威廉·休斯古·菲利普斯(Alban William Housego Phillips)于1949年打造的MONIAC(货币国民收入模拟计算机)经济模拟器。MONIAC使用透明管道中的有色水分来模拟凯恩斯经济政策的影响。它并没有密西西比河模拟器那么可靠,这可能是因为它没有将影响国家经济状况的所有变量考虑进来。但经由像密西西比河这么大的河流的水流也会受到很多人类无法列出的变量的影响。那密西西比河模型是如何得出与现实情况相差无几的预测的呢?

如果你想要预测在急流的边缘放置巨石的话会发生什么,你不必去理解流体动力学的方方面面:你只需要建造一个将小岩石放进小的水流的比例模型。只要模型比例无关紧要,那你的模型就会给你答案。正如高级水力工程师斯坦福·吉布森(Stanford Gibson)就密西西比河流域项目所说的,“物理模型会自行模拟所有的过程。”

MONIAC利用水流来模拟经济理论,“贮水池代表家庭、企业、政府和经济体中的出口和进口部门”,代表收入、支出和GDP(国内生产总值)。它所考虑的变量受到可装入一个冰箱大小的设备的阀门、导管和贮水池的限制。

密西西比河流域模型似乎没有对会影响洪水的因素进行假设,除了假定除非你给该系统注入了更多的水,否则洪水不会发生。但当然,那并不是真实情况。该模型假定,全尺寸会发生的事情在1/2000尺寸时也会发生。事实上,该模型水平比例是1/2000,垂直比例是1/100,这种设计“可确保地形变化显而易见”,这也导致落基山脉不成比例,离地面50英尺高。该模型的建造者假定山脉的高度不会影响其实验的结果,这显然是对的。同样地,他们没有模拟月亮的位置,也没有在田地里种植微型庄稼,因为他们假定那些因素是不相关的。

因此,密西西比河的“无理论”模型行得通不只是因为“该物理模型会自行模拟所有的过程”,还因为该物理模型纳入了有关重要的因素的假定,那些假定给模型的建造目的提供了准确的结果。使用密西西比河模型来模拟气候变化的影响或者明轮推进器对藻类生长的影响,不会带来可靠的结果,因为那些影响可能会受到不在模型当中的其它因素的影响,因为那些影响对于模型比例很敏感。

即便是在密西西比河模型奏效的情况中,我们也不理解它为什么会行得通,怎么会行得通。它并不是基于密西西比河流域的数学模型建造而成的,它是没有生成这样的模型就能奏效。确实,它行得通是因为它不需要我们去理解它:它让模拟的物理现象自行去演变,而无需在它上面施加人类逻辑推理的限制。因此,这种模型比像MONIAC这样的根据人类的理论和理解建造出来的模型要准确。

直到机器学习出现之前,我们除了手动设计模型然后让计算机来实施之外别无选择。我们假定,提升预测能力的途径就是让模型变得更加具体更加准确,同时给那些手工制作的模型积累更多更好的数据。由于那些模型是人脑的产物,知识和理解会是紧密相关的。

但事实上,那种假定是基于未表达出来的假定。

可知性假设

在佛罗伦萨的伽利略博物馆,有一可追溯到1953年的浑天仪,在房间中它显得特别大。它由多重金属制和镀金的木制齿轮组成,齿轮在外部的圆圈层里面。将其外围的子午环设定成“与地平线垂直,与实际的子午线平行”,然后将其朝向太阳或者已知的恒星,它就会准确地显示天体的位置。这个模型可带来有关物体在地球天空的哪个位置出现的可靠知识,但它所使用的模型却是完全错误的。

这种浑天仪符合古希腊的理解:地球处在宇宙的中心,天体围绕完整的圆圈运转。要模拟行星在空中的非圆形的偏心运动,圆形齿轮必须要以复杂的方式与其它的圆形齿轮相连。

古代的理解让我们觉得很神奇。但它最根本的假定跟我们的还是相符的:认识世界的条件是世界是可认识的。如果实体之间没有相似性,所有的情况没有统一的规律,物体没有实质性的分类,差异性底下找不到简单性,那么我们就会处在不可知的混乱当中。

所幸的是,我们并没有处在这样的世界当中。得益于开普勒、哥白尼、伽利略、牛顿等人的贡献,我们不仅仅能够比最好的浑天仪更准确地预测天体的位置,还能够以前所未有的方式去认识这个世界:有些对我们而言足够简单的定律让我们能够发现和理解它们。这些定律可应用于任何地方,可应用于任何事情上。它们代表宇宙的真理。

对我们来说重要的是,带来知识的模型也能够准确地反映世界的运转方式。即使浑天仪所产生的结果跟牛顿定律是一模一样的,我们也会坚持认为在牛顿定律之前出现的那个模型是错误的。我们会坚持认为,古代人并不理解世界的运转方式,因为他们所使用的模型并不能反映实际状况。

我们坚持认为,该模型反映世界的运转,是因为我们假定模型所反映的世界是可认识的。

但我们现在有一种不同的模型。跟传统模型一样,它们能够使得我们做出准确的预测。跟传统模型一样,它们能够带来知识。但有的新模型是无法理解的。

这些模型的成功或许给我们展示了一个古人和起源于他们的传统意想不到的一个令人不安的真相。

后计算稀缺性时代

在诞生的头50年里,计算机具有稀缺性。人们会为某一目的收集所需要的最低信息量,然后将那些信息整理成记录。那种局限性构建到了计算机最初的信息消化媒介:打孔卡。这些打孔卡将信息变成了空间数组,那些空间数组之所以可读,是因为数组和它的编码是一致的。那种一致性剔除了差异、独特性、例外情况和特异的东西。

当然,你可能会问为什么打孔卡会成为被选中的机制。这至少部分因为历史原因:赫尔曼·霍尔瑞斯(Herman Hollerith)所创办的公司后来变成IBM,他使用的打孔卡能够自动化1890年美国人口普查的计数流程。在18世纪末,打孔卡经过开发被用来控制提花织布机编织的图案。

这些年来,计算机已经扩展了它们能够处理的信息量,但直至我们将它们接入全球范围的公共网络,变革才发生。计算机如今能够容纳互联网上所有的信息。那些信息不仅仅包括庞大数据存储库的内容,还包括来自遍布于陆地、海洋和天空的传感器的输入信息。所有的那些信息的结构未经管制,因而促使处理采用人们意料之外的格式的数据的标准和协议的出现,进而保留信息上的差异性,而不是因为它们的不一致而消除它们。例如,NoSQL数据库可让记录在它们所捕捉的领域上存在对象差异。万维网创造者蒂姆·伯纳斯-李创造了“关联数据”一词来说明完全忽视记录概念,使得话题的每一个细微之处都能够以可重复使用的形式表达出来的信息。

这使得网络时代的信息概念与计算机时代很不一样。现在我们更多地将信息看作是溪流,而不是存储在容器里的资源。

我们的机器容量之大,连接性之强,让我们认识到我们的世界是多么地复杂,多么地不确定。

例如,Kevin Heng在《美国科学家》发表文章指出了多量程问题:“系统中的小小的扰动”在无数的尺寸和时间标度中会呈现巨大的影响。

模型总是可以简约的:它们将调查研究局限于我们能够观察和跟踪的那些因素。数千年来,我们假定我们的简单模型会反映宇宙的简单性。如今,我们的机器正让我们看到,即便设定的规则很简约,很漂亮,很理性,它们所管理的范畴都如此精细,如此错综复杂,如此相互联系,牵一发而动全身,以至于我们的大脑和我们的知识都无法理解。我们要借助由人类和计算机组成的网络才认识到世界原来完全受不确定性所支配——这个世界完完全全都是混沌的。

放弃知识

早在西方文化开始发现知识时,柏拉图告诉我们,信念并不足以成为真相,因为如果信念就是真相,那就意味着你对普里克内斯赛马比赛的胜出者的幸运猜测要被算作知识。这解释了为什么在西方国家知识要由可确证的真实信念构成。

我们新形成的对不可理解的模型的依赖,将其视作我们的信念的印证来源,将我们置于奇怪的位置。如果说知识包括对我们的信念的确证,那么知识不能归类为心智内容,因为如今的确证由存在于机器的、人类心智无法理解的模型构成。

对此,我们的反应可能是不再去依靠无法为我们所理解的计算机模型,从而让知识继续以其原来的方式发展。这意味着我们要放弃某些类型的知识。我们已经放弃了一些知识类型:法院严禁某种证据,因为准许它的话,就会给警方带来非法收集它的动机。同样地,很多的研究机构都需要拟议项目通过机构审查委员会的审批,从而预先防止那些或许有价值但可能会伤害受试者利益的项目。

我们已经开始定义机器确证的社会成本太高的领域。例如,信用评分公司FICO评分与分析高级副总裁安德鲁·詹宁斯(Andrew Jennings)表示,“由于法规要求建立信用评分系统的人处理好预计有用的东西和法律允许的东西之间的折衷,美国和其它地区在信用评分方面有很多存在已久的规章制度。”例如,机器学习算法可能会发现,浸礼会教徒一般都是风险小的信用对象,而圣公会教徒则不然。尽管这个例子属实,但那些只是可能不会被用于计算信用评分,因为美国法律不允许基于宗教信仰或者其它的受保护阶级的歧视行为。信用评分公司也不得使用表明这些属性的数据,比如订阅《浸礼会周刊》(Baptist Week)。

信用评分公司能够从来计算信用风险的模型还受到其它的一些限制。如果贷方拒绝信贷申请,贷方必须要提供申请者信用评分不高的原因。为了符合这一要求,FICO尽可能地为消费者提供可行的解释说明。例如,詹宁斯解释道,信贷申请者可能会被告知,“你的信用评分低,是因为过去一年里你累计八次信用卡过期还款。”

不过,要是FICO手动创建的模型对于信用风险的预测能力没有神经网络那么强,会怎么样呢?事实上,詹宁斯称,在使用同样的输入变量的情况下,他们最近对比了通过机器学习技术得出的信用评分和手动创建模型得出的结果,他们发现二者之间差异并不大。但机器学习的好处在于,有些时候机器不可理解的模型的预测能力会比人类可理解的手动创建模型强大得多。在那些情况中,我们的知识——如果我们使用它的话——将依赖于我们无法理解的确证。

然而,尽管机器学习模型非常强大,但我们也要学会提出质疑。出现例证失效的似乎是那些机器确证没有充分逃脱人类根源的模型。

例如,被训练评估申请保释的个人构成的风险的系统会放行那些白人惯犯,但不会放行那些犯罪记录较少的非裔美国人。该系统学习到了人类的偏见,人类的决策属于数据的一部分。中央情报局(CIA)用来辨认无人机袭击目标的系统一开始指向了半岛电视台的一位知名记者,因为该系统接受过有关知名恐怖分子的小数据集的训练。这种系统显然还是需要人工监督,尤其是涉及无人机袭击,而非给黄瓜分类的时候。

数据分析公司Fast Forward Labs研究工程师迈克·威廉姆斯(Mike Williams)在接受电话采访时表示,我们需要特别警惕往往影响重要数据集的归类和重要数据收集方式的偏见。例如,最近有论文讨论一个使用神经网络来预测肺炎患者的死亡概率的项目,该项目是为了鉴定可作为门诊病人来治疗的低风险患者。神经网络预测的结果一般都比那些对数据实施已知规则的手动创建模型准确。然而,神经网络明确指出,喘息性肺炎患者死亡风险较低,因此应当作为门诊病人来治疗。这与护理人员所知道的以及常识相矛盾。最后研究人员发现,该发现是因一个事实所致:喘息性肺炎患者会立刻被送到重症监护室,因此存活率很高。但很显然这并不意味着他们应当被送回家,相反他们应该住院治疗。要识别这种错误,需要人工的监督。

新书《数学杀伤性武器》作者凯西·奥内尔(Cathy O’Neill)指出了决定我们使用哪些数据集来训练计算机的价值观的内隐偏见。她谈到了一个有人给一个岗位找最合适人选的例子,其列出的其中一个条件是:“能够供职多年时间,争取晋升机会”。如果使用机器学习算法来完成这项任务的话,你最终很可能会聘请到男性,因为女性在同一个工作岗位的停留时间通常相对较短。她说,使用机器智能来鉴定公立学校系统中的差教师也是同样的道理。怎样才算是坏教师呢?看其班级学生在标准化考试中的平均分?看最终有多少学生毕业?看有多少学生上大学?看学生毕业后的年收入水平?看学生毕业后过得是否幸福美满?人类或许能够作出定义,但机器学习算法很可能会重新建立起我们选来给配备的数据所隐含的偏见。

因此,我们可能会两手一起抓。一方面,我们将延续我们禁止一些确证类型来避免不良的社会影响的传统。与此同时,我们可能将会继续越来越依靠我们无法理解的机器确证。

问题不仅仅在于,我们无法理解它们,就像外行无法理解弦理论一样。还在于,基于计算机的确证本质上完全不同于人类的确证。它是一种异类。

但“异类”并不意味着“错误”。说到理解万千世界,机器可能比我们人类任何时候都要接近于真相。

异类确证

在某处地方,有只蠕虫比它的同类更有好奇心。它会慢慢穿过泥土,品尝它经过的每一片土地的味道,总是去寻找下一个新的泥土样本,因为它认为蠕虫的最高使命是认识它的世界,而品尝就是它获取知识的方式。凭借丰富的经历和出众的分类和表达能力,这只蠕虫在同类当中备受尊崇,被视作能够传授有关地球尝起来是什么味道的智者。

但味道并不是地球的属性,也不是它的组成部分。我们尊贵的蠕虫所品尝到的东西是它的味觉和土壤化学成分相遇的结果。蠕虫的器官只能够让它通过与地球上的东西的部分属性相关的品质来认识世界,但实际上世界并不是那样子。正如认知科学家唐纳德·霍夫曼(Donald Hoffman)所说的,现实性的认知不大可能让生物变得更适合进化。

我们认为,人类知识不同于智慧蠕虫的知识。我们能够辨别规律秩序,这能够给感官带来的混乱带来一致性和可预测性。我们并非蠕虫。

的确如此。但我们给我们全球的计算机网络填充的细节越多,世界就越不像是运转状态良好的浑天仪。我们的机器如今让我们明白到,即便宇宙运行所基于的原理没有比围棋复杂很多,万事万物之间的相互影响会一下子让它变得比亚里士多德、牛顿、爱因斯坦甚至一些混沌理论家所认为的更具不确定性。它看上去井然有序只是因为我们的工具仪器显而易见,只是因为我们的知识概念在我们找到秩序之前通过简化事态来强行施加秩序,只是因为我们的需要满足于近似值。

如果你只是想要将8号球打入角落球袋,那并无问题。但如果你想要知道那个球将会走出的真实路径,那你就得考虑它在经过毛毡的每一个纤维时在分子层面所产生的摩擦力,考虑月球的拉力和地球晃动造成的时间差,考虑台上灯具和侧边电灯发出的光子所产生的不规则影响,考虑你的对手屏住呼吸时气流的变化。更不用说量子的不确定性了。这些东西没有一样会影响到你是否打中那个球,但它就是正真实发生的事情。即便宇宙由简单到能为我们所理解的定律所主宰,宇宙中最简单的事情也是不可理解的,除非将它们简单化。

我们的机器正让我们明白到这一点,因为它们不需要我们将信息缩减到可融入一堆打孔卡。由于它拥有这种新能力,我们如今趋向于给它们加入一切的信息,然后才发问。

当然,我们所获取的知识仍将只是宇宙可带来的冰山一角,而且很容易受我们的偏见和假定影响。即便如此,这种新量级下的数据正让数千年来的一个真理变得显而易见:知识高于我们。

1990年代中期,万维网开始促使我们跳出我们通过缩减我们需要认识的东西来认识世界的传统方式。知识迅速逃脱纸张的牢狱,寄居于网络。举例来说,现在如果你想要了解《李尔王》(King Lear),你会上网去查找,在网络上,我们对于该戏剧的知识存在于无数的文学学者、历史学家、语言学家、数字人文主义者、演员、导演和观众创建的网站链接。这些内容创建者包括专业人士、业余人士、愚笨的人和学者。我们有关《李尔王》的知识边界是每个人的兴趣和现有项目所决定的。那些容易消失的边界内的网络化知识非常庞大,相互关联,往往是不一致的。这就是知识在规模化的时候的样子。

机器学习的兴起进一步凸显了人类的理解力相对于其给自己设定的任务的不足。并不是说,知道希格斯玻色子需要一个由硬件、软件、科学家、工程师和数学家组成的网络。迈克尔·尼尔森(Michael Nielsen)在其2011年出版的优秀著作《重塑发现:哈佛伯克曼·克莱因中心网络化科学的新时代》有指出这一点。毕竟,知识的传统确证允许我们依靠值得信赖的资源。这部分因为我们知道,理论上我们可以采访所涉及的每一个人,可以判定他们是否是希格斯玻色子确证一事的重要组成部分。

然而,当神经网络产生结果所基于的过程不同于人类确证知识的方式时,我们就没什么办法了。我们能够通过指出AlphaGo赢得围棋比赛,以及无人驾驶汽车的移动网络可产生较少的事故,来证明机器所产生的结果很有可能是知识。但我们不一定能够理解AlphaGo为什么会这么下棋,而不是那么下棋,也不一定能够理解为什么明明应该往左转,无人驾驶汽车却往右转。这涉及太多的信息输入,机器的决策基于各种相关性的综合考量,而这些即便是最聪明的人脑也无法理解。

在对知识乃至世界如何运作的日常想法上,我们正开始经受一种范式转移。在我们原来认为简单的原理基于相对可预测的数据的情况中,我们现在正变得清楚地认识到,看上去再简单的情况,实际上也极其复杂。原来我们认为天体的运动具有规律性,生命中变幻莫测的事件都是异常现象——只是“意外事故”,亚里士多德提出的区分它们与事情的“基本”属性的概念——而如今,一切发生的事情都具有不确定性,成了我们的思维范例。

这正使得我们能够确定我们大脑以外的知识。我们只能知道我们所知道的东西,因为我们跟我们自己设计的异类工具有着紧密的联合关系。我们的脑力是不够的。

来自100年前的实用主义哲学帮助我们通过限制我们的野心来在在智力上准备好应对这种变化:知识更多的是在世界中操作的工具,而不是世界的反映。德国哲学家马丁·海德格尔(Martin Heidegger)的唯象理论提供了一种不同的纠正,它指出,知识是世界的心智表征的看法是虚假的。

安迪·克拉克(Andy Clark)和大卫·查尔默斯(David Chalmers)至少部分基于海德格尔思想的延展心智理论,则对知识提供了一种更加直接的重塑。克拉克在其1996年出版的著作中指出,获取知识这件事情,我们一直以来都是利用工具来做的。四千年前,不懂数学的牧羊人需要一些小圆石来确保他带回来的绵羊数量与出发时一样,现在的物理学家很可能还需要白板来做认知工作。建筑师需要大块的纸张、直尺甚至3D模型来思考建筑的构造。沃森和克里克需要自制的装置来搞懂DNA的结构。现在,这些领域的工作人员都已经转用电脑了,牧羊人甚至可能配备最新的iSheep应用了。然而,情况还是一样的:我们利用工具来理解这个世界。将知识视作一种心智内容——一种经过证明的真实看法——会模糊那个简单的现象真相。

只要我们的计算机模型能够具现化我们自己的看法,我们就能维持世界是像我们的知识(和我们的模型)那样运转的幻觉。一旦我们的计算机开始自行创建模型,并且那些模型超出我们的理解范畴,我们就失去了那种令人心安的假设。我们的机器让我们的知识论的局限性变得显而易见,通过带来修正,它们揭示了一个关于宇宙的真理。

这个世界并非碰巧被上帝设计得或者被偶然设计得可为人类大脑所认识。世界的本性更接近于我们的计算机和传感器网络体现它的方式,而非人类心智对它的感知。随着机器能够独立运作,我们正失去那种世界碰巧简单到能为我们人类所理解的幻觉。

  • 合作伙伴

  • 官方微信
    官方微信

    新浪微博
    邮件订阅
    第一时间获取最新行业数据、研究成果、产业报告、活动峰会等信息。
     关于艾瑞| 业务体系| 加入艾瑞| 服务声明| 信息反馈| 联系我们| 广告赞助| 友情链接

Copyright© 沪公网安备 31010402000581号沪ICP备15057083号-1