自从 20世纪中期电脑出现以来,关于电脑的能力极限,以及人脑能否被视为一种形式的电脑的争论就没有间断过。对于后一个问题,舆论共识已经发生转变,从认为这两种信息处理实体在本质上是相同的,转变为认为二者存在本质上的不同。那么大脑是否可被视为电脑呢? 20世纪 40年代,电脑开始成为时髦的话题,它们被视为思考机器。 1946年,世界上第一台电子数字积分计算机 ENIAC发布,它被媒体称为“巨脑”。随着电脑在接下来的几十年里走入大众市场,广告常常称其为普通人脑无法企及的、拥有超能力的“大脑”。 程序使电脑名副其实。由卡内基 •梅伦大学的赫伯特 •西蒙(Herbert A. Simon)、J. C.肖( J. C. Shaw)和艾伦 •纽厄尔( Allen Newell)发明的“通用问题解算机”,成功证明了数学家伯特兰 •罗素( Bertrand Russell)和阿尔弗雷德 •怀特海( Alfred North Whitehead)在他们 1913年出版的名著《数学原理》(Principia Mathematica)中无法论证的定理。在接下来的几十年里,电脑在解数学问题、诊断疾病、下国际象棋等智力运动方面凸显出大大超越人脑的优势,但在控制机器人系鞋带,或是学习 5岁大儿童就能理解的常用语言方面却困难重重,计算机现在才刚刚能够掌握这些技能。具有讽刺意味的是,电脑的进化与人类智能的成熟方向正好相反。 关于电脑和人脑在某种程度上是否等同的问题至今仍存在争议。在序言中我提到关于人脑的复杂性可以查到无数种引证。类似地,在 google上搜索“大脑不等同于电脑的引证”,也可以得到上百万条链接结果。在我看来,这些链接的内容都无异于在说“苹果酱不是苹果”。技术上来说这种说法没有错,但苹果可以做出苹果酱。类似于“电脑不是文字处理器”之类的说法可能更加贴切一些。尽管电脑和文字处理器存在于不同的概念层面是事实,但是电脑在运行文字处理软件时就变成了文字处理器,反过来则不然。类似地,电脑如果运行“大脑软件”则可以变成人脑。这正是很多研究人员,包括我自己正在尝试的事情。 那么问题就变成了我们是否可以找到一种算法使电脑变成等同于人脑的存在。由于具有内在通用性(仅受容量大小制约),一台电脑可以运行我们定义的各种算法,人脑却只能运行一套特定的算法。尽管人脑的模式相当精巧,不仅有极大的可塑性,还可以在自身经验的基础上重建连接,但这些功能我们可以通过软件进行仿真。 基础1:准确的沟通、记忆和计算能力 计算的通用性的理念(即一台普通目的的电脑可以植入各种算法)在第一台机器产生时就出现了。计算的通用性和可能性及对人类思维的适用性包含 4个核心概念,它们很值得探讨,因为人脑也在对其进行运用。第一个是准确的沟通、记忆和计算能力。在 1940年,如果你使用“计算”这个词,人们会认为你在说模拟电脑。模拟电脑的数字由不同程度的电压代表,而且特定的模块可以运行加、乘等运算。然而,模拟电脑的一个很大的限制是准确性存在问题。其准确性只能达到小数点后两位数,而且随着处理代表不同数字的电压的操作员增加,错误也随之增多。所以无法进行较大量的计算,因为结果会由于准确性太低而毫无意义。 只要曾用模拟磁带机录制过音乐的人都会知道这一效应。第一遍拷贝的质量会打折,相比原版听起来有较多杂音(此处的“杂音”代表随机错误)。把第一遍拷贝再进行拷贝会出现更多杂音,到第十遍的拷贝时,基本上就只剩下杂音了。数字计算机的崛起伴随着同样的问题,思考一下数字信息的沟通通道我们就可以理解了。没有任何通道是完美的,通道本身都存在一定的错误率。假设一条通道有 90%的可能性能正确传送每个比特的信息。如果我传送的信息有 1比特,那这条通道正确传送它的可能性为 0.9,那假如我传送 2比特信息呢?那准确率就变成了0.92 =0.81。那假如我传送 1字节( 8比特)信息呢?我准确传送该信息的可能概率连 50%都达不到(准确地说是 0.43)。准确传送 5字节信息的可能性仅为 1%。 解决这个问题的一个方法就是增加通道的准确性。假设一个通道在传送一百万比特时出现一个错误,如果我传送的文件包含 50万字节(约为一个普通的程序或数据库的大小),尽管通道固有的准确性较高,但正确传送它的可能性仍不到 2%,而单单一个比特的错误就可以彻底毁掉整个程序或其他形式的电子数据,所以这种情形并不能令人满意。除了通道的准确性,另一个棘手的问题是传送中出现错误的可能性随着信息量的增加而迅速增加。 模拟计算机通过柔性降级的方法处理该问题(即用户只用其处理能容忍出现一些小错误的问题)。如果用户能将其运用限制于一定的计算,那么模拟计算机确实是有用的。然而数字化计算机要求连续的通信,不仅是在不同的计算机之间,也包括计算机自身内部:从内存到中央处理器之间存在通信;在中央处理器中,不同寄存器和算法单元之间也在进行通信;在算法单元内,从一个比特寄存器到另一个之间也在进行交换。通信在每个层次上都普遍存在。如果错误率随着通信的增多快速增加,而一个比特的错误就可以破坏整个过程的完整性,那么数字化计算注定会失败,至少在当时看来是这样的。 引人注目的是,这种普遍的认识在美国数学家克劳德 •香农( Claude Shannon)出现并展示了怎样通过最不可靠的沟通通道来进行精度很高的通信时得以改变。 1948年 7月和 10月,香农在《贝尔系统技术杂志》(Bell System Technical Journal)上发表了具有里程碑意义的论文《通信的数学原理》(A Mathematical Theory of Communication),提出噪声通道编码理论。他认为无论通道的错误率是多少(除了错误率正好为每比特 50%的通道,因为这意味着该通道传输的是纯粹的噪声),都可以按想要的精度传送信息。换句话说,传输的错误率可以是 n比特分之一,但是 n的大小可以随意定义。比如说,极限情况下,就算一个通道的正确率仅为 51%(即该通道传送的正确信息的比特数仅比错误信息的比特数多一点儿),仍然可以使传输的信息错误率达到百万分之一,甚至万亿分之一,甚至更小。 这是怎么做到的呢?秘诀就在于冗余。这在现在看来似乎是显而易见的,但在当时则不然。举一个简单的例子,假如我每比特信息都传送 3次,并且选传输后多数相同的那条信息,那么我就可以大大地提高信息的可靠性。不断增加冗余就能让你得到你需要的精度。不断重复传送信息是从准确性较低的通道得到任意高精度信息最简单的方法,但不是最有效率的方法。香农的论文开创了信息理论这一领域,为错误侦查和校正码提供了最理想的方法,使在任意非随机通道条件下获得任意目标精度成为可能。 年纪较大的读者可以回想一下电话调制解调器,它通过嘈杂的模拟电话线路传递信息。幸好有了香农的噪声通道理论,尽管这些线路存在可以听到的明显的嘶嘶声,砰砰声或其他形式的声音失真,它们仍然可以传送高精度的数字化信息。数字存储器也存在同样的问题和解决办法。你是否想过为什么就算唱片曾掉在地上并且有刮痕, CD、DVD或其他磁盘软件仍能准确地读出音乐吗?这也多亏了香农。 计算包含 3个部分:通信(正如我之前提到的,在计算机内部和计算机之间普遍存在)、存储器和逻辑门(可进行计算和逻辑功能)。逻辑门的准确性可以通过错误侦查和校正码达到任意高的精度。幸好有了香农的理论,不管多大多复杂的数字化信息和算法,我们都可以准确处理,避免过程中出现较高错误率。需要指出的很重要的一点是,我们的大脑也在运用香农的理论。当然,人脑的进化远远先于香农发现这一原理。绝大部分模式或思想(思想也是一种模式)在大脑中储存时都包含大量的冗余。冗余出现的首要原因是神经传输系统自身的不可靠性。
如何创造思维——计算机思维的4大基础
书名: 如何创造思维
作者: [美] 雷·库兹韦尔
出版社: 浙江人民出版社
原作名: How to Create a Mind: The Secret of Human Thought Revealed
副标题: 人类思想所揭示出的奥秘
译者: 盛杨燕
出版年: 2013-11-28
页数: 300
定价: 62.00元
装帧: 平装
丛书: 湛庐文化·财富汇
ISBN: 9787213058646