库兹韦尔定律及其在人类智能提高方面的应用,也招致了不少批评。保罗·艾伦对“指数发展”说完全持否定态度。罗杰斯·彭罗斯认为,计算机无法像人脑那样进行量子计算。约翰·赛尔说,计算机即便能够通过图灵测试,它也不知道自己在做些什么。
如果机器能够证明自己与人类毫无差别,我们应该像尊重人类一样尊重它——我们得承认,它有一个大脑。
史蒂芬·哈勒德
我的库兹韦尔定律及其在人工智能上应用的论文引发的批判声此起彼伏,这些异议的理论基础是人类直觉的线性本质。正如我之前所描述的,大脑皮质中数亿个模式识别器一个个连续地处理信息,这种组织结构给我们的一个启示是,我们对未来怀有线性期待。所以评论家们将他们的线性直觉应用于那些有基本指数特征的信息现象中。
“奇点遥远”论
我将各种各样反对的声音称为“源自怀疑的批判”,因为我们的线性偏好,指数推测看起来不太可靠。近来,微软共同创始人保罗·艾伦(Paul Allen)和他的同事马克·格里夫斯(Mark Greaves)在《技术评论》杂志(Technology Review)上发表了题为《奇点依旧遥远》(The Singularity Isn't Near)的文章。在文章中,他们明确地表示了对指数推测的不信任。在此我想针对艾伦的独特评论作出回应,这些批评代表了一系列对我的论点持怀疑态度的声音,尤其是关于大脑的那部分。尽管艾伦在他的文章中参考了《奇点临近》,但他文中仅有的引证来自我2001年所写的论文《库兹韦尔定律》(The Law of Accelerating Returns)。此外,他的文章并没有承认或者回应我在书中所做的论证。遗憾的是,对我作品持批评态度的人都是这个样子。
自1999年《心灵机器时代》一书出版,到2001年那篇论文发表,我的很多观点激起了很多批评的声音,诸如:摩尔定律就要失效;硬件性能会指数型扩张而软件则会进入瓶颈期;大脑构造太复杂;大脑的一些性能是固有的,不能被软件复制,等等。其实,我写《奇点临近》的一个原因就是为了回应这些评论。
我不能说,艾伦和其他观点相似的评论家们已经信服于我文中的观点,但是至少,他和其他人能够对我实际所写有所回应。艾伦认为“库兹韦尔定律……不是物理定律”。我要指出的是,绝大多数科学定律都不是物理定律,而是源于低层次上多数事件的突出特征。一个典型的例子是热力学定律。如果你观察热力学定律下的数学应用,你会发现它是在毫无规律地给粒子建模,就像一个人漫无目的地转悠,所以很明显,我们不能预测一个特定粒子下一秒会出现在哪里。然而,根据热力学定律,气体的整体情况是可以进行精准预测的。库兹韦尔定律跟热力学定律是一个道理:每个技术方案与研发者是不可预测的,但是,用性价比及生产力这些基本考核进行量化,整体轨迹总是按照一条明晰的可预测的路径发展。
如果只有少数研究者痴迷计算机技术,那它的确是不可预知的。但是性价比的基本考核确实是有竞争能力项目的动能系统的产物,比如每秒每定值美元成本下,计算都呈一个非常平稳的指数趋势,1890年的美国人口普查就已经显现出这一点,我在第10章曾提到过。在《奇点临近》一书中,库兹韦尔定律的理论基础得到广泛体现,最有力的例子是就是我和其他人所呈现的大量实验证据。
艾伦写道:“人们一直使用那些规律直至它们被淘汰。”他说这句话,其实是把范式跟信息技术基本领域不间断的轨迹混为一谈。如果我们回过头去检查,比如,制造更小真空管的趋势——20世纪50年代改进计算的范式,这一范式的确是被用到淘汰。但随着这种范式终结命运的清晰显现,下一种范式的研究压力就增加了。晶体管技术保持着计算价格与性能上指数增长的基本趋势,这种趋势促使第五范式(摩尔定律)诞生,也使得集成电路的产品特征受到持续压缩。已经有很多人预言摩尔定律终将走向灭亡。半导体产业的“国际半导体技术发展路线图”计划在21世纪20年代生产7纳米特征的半导体。到那时,最引人注目的特征,将会是这种半导体的宽度——35碳原子,而且,这个宽度很难进一步压缩了。然而,英特尔与其他芯片制造商已经在第六范式上先人一步,他们采用三维计算来继续保持性能价格上的指数增长。英特尔计划让三维芯片在10年内成为主流,这之前,三维晶体管,3D记忆芯片已经面世。在计算性能价格方面,第六范式将会保持库兹韦尔定律运作直到21世纪末,到那时,价值1000美元的运算将会比人类大脑强大万亿倍。(这样看来,至少,在功能性地模拟人类大脑需要何种的程度运算这一问题上,艾伦与我达成了共识。)
接着,艾伦继续阐述标准参数,论证软件不会像硬件一样呈指数级增长。在《奇点临近》中,我最后还是对这一问题进行了解释,我论证了在软件中用不同方法测量复杂度和性能时会得出相似的指数级增长。一则最近的研究(由总统科技顾问委员会委员所写的《给总统与国会的报告,设计数字化未来:联邦政府资助下有关网络与信息技术的研究与发展》)陈述如下:
在诸多领域,运算的进步带来的性能增益已经大大超过依靠处理器加速,这一点激动人心,但是能够理解的人却很少。今天我们用于语音识别、自然语言翻译、下象棋、物流规划等的运算在过去的10年间,已经取得显著发展……柏林康拉德信息技术中心的教授,最优化方面的专家格罗斯彻(Gröstschel),提供了这样一个例子:他观察到,在1988年,通过当时的计算与线性运算法则,采用线性程序进行计划模型解决的标准化生产要花82年。15年以后,也就是2003年,同样的模型在大概一分钟内就能解决,效率几乎提高了4300万倍。在这个过程中,效率提高1000倍是由于处理器的速度提高了,而提高43000倍则是依靠运算法则的改善!格罗斯彻还引用了一个运算例子,1991—2008年,这个运算将混合整数规划程序效率提高了30000倍。运算的设计分析及固有的计算复杂性问题研究都是计算机科学的基础分支。
需要注意的是,上文格罗斯彻所引述的线性程序已经从43000000∶1的比例中受益,这一程序是一门数学技术,适用于在层级记忆系统中分配资源,如我早些时候提到过的隐马尔可夫层级模型。在《奇点临近》中我还引用了许多其他类似的例子。
至于人工智能,艾伦毫不犹豫地否定了IBM的沃森巨型计算机系统,其他很多批评家也持相同意见。但可笑的是,他们中很多人对这个系统一无所知,认为它不过是一款在计算机上运行的软件(虽然这种计算机可并行计算及配备了720个处理器内核)。艾伦写道,沃森这类系统“可塑造性差,性能严重受到内在假设和确定算法的制约,它们没有归纳能力,还经常给出专业领域之外的毫无意义的回答”。
首先,我们可以对人类做一个类似的调查,同时我还想指出的是,沃森系统的“专业领域”包括维基百科及其他一些知识库,它们很少会聚焦到某个具体的知识点。沃森系统能够处理大量的人类知识,也能够处理微小的语言形式,如人类活动领域范围内的双关语、暗喻、明喻等。它并不完美,人类也是一样,但它胜过了《危险边缘》节目里最优秀的选手。
艾伦辩解说,沃森系统是由科学家们亲自装配的,他们将各专业领域的精密知识连接起来运用到这个系统上,这个说法是完全错误的。虽然其中几个领域的数据是直接编写的,但绝大部分的知识还是通过它自己阅读诸如维基百科等自然语言文件获得的。这一点也正是它的关键优势,就像它能够理解《危险边缘》中那些题目费解的语言一样(它通过搜索问题寻找答案)。
正如我早前提到过的,很多人批评沃森系统采用统计概率工作,而不是基于“真正的”理解。许多读者将此理解为,沃森系统只是通过字词的排序进行统计。“统计信息”一词对该系统而言,实际上指自组织方法中的分配参数和符号链接,如隐马尔可夫层级模型。个体能轻而易举地将大脑皮质中分散的神经递质浓度和多余的连接模式一并去除,同样也能毫不费力地抹掉“统计信息”。事实上,我们解决语义模糊的方式和沃森系统如出一辙——通过考虑一个词语不同解释之间的相似性。
艾伦接着在论文中这样写道:“数百万年间,(大脑中的)每一个结构都已经被精确定型,然后完成自己的使命,无论这使命是什么。它不像电脑那样,几种不同元素构成中央处理器(CPU),中央处理器又去控制上亿个有序存储的毫无差别的三极管。在大脑中,每一个结构和神经回路都因为进化和环境因素而得以完善。”
大脑中每一个结构和神经回路都是独一无二的,因此设计大脑可说是天方夜谭,因为这意味着大脑的蓝图需要万亿兆比特的信息。大脑的结构图(正如身体其他部分的结构图一样)存在于基因组中,因此大脑自身不可能包含比基因组还多的设计信息。要注意,表观遗传[1]信息(如控制基因表现形式的肽)并没有明显增加基因组信息量。经历和学习的确显著地增加了大脑的信息量,但这也适用于沃森一类的人工智能系统。我在《奇点临近》中展示过,无损压缩(由于基因组中的大量冗余)后,基因组中的设计信息数据量大约是5000万比特,约是大脑设计信息的两倍,也就是说,大脑的设计信息数据量约为2500万比特。那并不容易,但其复杂性仍在我们能够解决的范围之内,而且与现代社会的其他软件系统相比,它根本不算什么。此外,大脑的2500万比特基因设计信息很多与神经元的生物要求有关,而非它们的信息处理算法。
我们怎样从仅仅几千万比特的设计信息中得出同一类型的100万亿~1000万亿的连接呢?很明显,通过大量冗余。德尔门德拉·穆德哈(Dharmendra Modha,IBM研究中心认知操作部门的管理者)写道:“神经解剖学家还没有发现胡乱连接在一起的网络,对大脑中的个体而言,这一系统完全是异类,但是个体大脑中有很多重复的结构和跨物种的同源性……这种天然的重构性一方面让我们惊奇,另一方面则给我们以希望,即脑神经运算的核心运算有望独立于特异感应器及电机模型,而且脑区皮质结构中所观察到的变体意味着规约线路的完善;而我们正想用这个规约线路进行逆向工程。”
艾伦认为,有一种“固有的复杂制动系统牵制着人类理解大脑和复制其的能力”,他的这一论点基于这样一个假设,大脑中的100万亿~1000万亿的连接真实存在。他的“复杂制动系统”本末倒置了。如果你想理解、模拟或再创造一个胰腺,你并不需要对胰腺中的每个细胞进行再创造或模拟。你只需要理解一个胰岛细胞,然后将其在胰岛中的基本功能提取出来,最后将其功能扩大到更多的同类细胞中。现在已经有这种功能模型的人工胰岛素进行测试了。虽然,比起胰腺中那些大量重复的胰岛素,大脑显得更复杂,变量更多,但是,正如我在书中反复提到的,它们的功能存在很多重合的地方。
艾伦的批评中也明确提到了我说过的“科学家的悲观”。为新一代技术或为一个科学领域建造模型苦心钻研的科学家们,无一例外地都在与这种悲观情绪作斗争,所以如果有人能对未来10代科技的面貌说出个究竟,他们将嗤之以鼻。集成电路领域的一位先驱使我想起30年前,他们为了将10微米(10000纳米)的最小配线幅度减少到5微米(5000纳米)而苦苦挣扎的情形。对达到这个目标,他们有一些信心。但是当人们预测,未来某天我们能将电子线路的最小配线幅度降到1微米(1000纳米)以下的时候,他们守着自己的目标,觉得人们的想法太天真。有人指出,如若最小配线幅度降到1微米以下,由于热力影响及其他因素影响,电子线路就会脆弱不堪。但如今,英特尔公司已经开始启用栅长仅为22纳米的芯片。
在人类基因计划上,我们也曾感受到了一些相似的悲观情绪。当我们在那个计划上努力了15年的时候,我们只收集到了1%的基因组。批评家们都提出一些限制基因快速排序的因素,而且是在不破坏微小基因结构的前提下。幸好有了性能价格的指数增长,这个计划7年之后就大功告成,针对人脑的逆向工程也取得了相似进展。比如,直到最近,我们才在实时情况下,通过非侵害性扫描技术,看到每个神经元连接形成和稳固的过程。我在这本书中引述的很多证据也都是基于这些进步,但是直到最近,这些证据才得到证实。
艾伦描述我的人脑逆向工程的时候,认为它就是扫描人脑,然后理解它精密的构造,而后在没有充分理解信息加工方法的情况下,将大脑整个“颠倒过来”进行模拟。这并不是我的议题,虽然我们确实需要了解单个神经细胞工作的细节,然后将功能模块是怎样相互连接的信息收集起来。源于此种分析的功能方法能够指导智能系统不断发展。大体上,我们寻找的是受到生物学启发的,能加速人工智能工作的方法,虽然我们没有在大脑如何发挥相似功能上有重大发现,人工智能项目仍然取得不小进展。就以我的研究领域——语音识别为例,我清楚地知道,如果我们在大脑是如何合成并转换语音信息上取得进展,我们的工作进度将会得到很大提高。
大脑中大量的冗余结构由于学习和经历的不同而各异。人工智能体系当前的工艺实际上使其能够从自身的经历中得到学习。谷歌自动驾驶汽车有两个学习对象,一是从以前自身的驾驶经验学习,二是从人类驾驶汽车的经验中学习;沃森系统的大部分知识都源于阅读自身已有的东西。有一点很有趣,人工智能系统目前采用的方法已大大改进,而其方法在数学原理上跟大脑皮质中的运行机制很相像。
“量子计算能力缺失”论
对“强人工智能”(针对人类及人以外对象的人工智能)可行性的另一个反对声音是,人类大脑能广泛运用模拟计算,而数字方法固有的弱点是不能对类比法所具有的价值层级进行复制。单比特确实能够随意使用,但是多比特文字更能代表多层次渐变,而且能满足任何程度的精确度,当然,只有数字电脑才能做到这一点。实际上,大脑中模拟信息的准确度在256个阶位中只占一个阶位,而这256个阶位可以用8比特表示。
在第9章中,我引用了罗杰斯·彭罗斯和斯图亚特·哈梅罗夫关于微管和量化计算的反对意见,他们声称脑神经中的微管结构在做量子计算,由于这在计算机上是无法实现的事,而人脑跟电脑区别很大,所以它可能比计算机做得更好。如我早先解释过的,没有确切的证据证明神经微管在做量子计算。实际上,量子计算机能漂亮解决的问题(比如给一个大数字做因素运算),人们通常都做得很糟糕。如果这其中任何一项得到确证,那么量子计算机或许也能被用到我们的计算机当中来。
“无意识”论
约翰·赛尔曾引进一个名为“中文屋”的思想实验,他也因此声名大噪。在《奇点临近》一书中我曾对此进行过详细讨论。简单来说,这个实验是关于一个人拿到一些中文的问题然后对其进行解答。为了完成这些答案,他使用了一本详尽的中文使用手册。赛尔声称,虽然这个人能够用中文回答这些问题,但他并没有真正理解中文,对中文这门语言也毫无头绪(因为他不懂问题也不懂答案)。赛尔以此类比计算机,盖棺定论地说,虽然计算机能像实验中的人一样回答这些中文问题(基本通过中文图灵测试),但它跟这个人一样,并没有真正理解中文,也不清楚自己在做什么事情。
在赛尔的论点中,他采用了哲学上的花哨手法,一方面,思想实验中的人最多只能算是计算机中的中央处理器。人们可以说中央处理器对它正在做的事情毫无知觉,但中央处理器只是这个结构的一部分。在赛尔的实验中,那个带着中文使用手册的男人构成了一个完整的系统,这个系统对中文是有所了解的,否则,他是不会被说服去参与这个实验,然后回答中文问题的。
赛尔的观点吸引人是因为,今天我们很难去推论计算机程序是否有真正的理解或意识。而他论点的问题在于,你可以将其推理的内容运用到人类大脑上。每个新皮质模式识别器——每个脑神经和每个神经元部件,都遵循特定的运算(毕竟,它们都是遵循自然法则的分子机制)。如果我们断定,符合某个运算法则跟真正的理解和意识是相悖的,那么我们也可以说,人类大脑也不具备这些品质。你可以接受赛尔的实验,然后将“操控神经元连接和连接强度”改为“操控符号”,然后,你就得到你能信服的观点,即大脑并不真正理解某件事。
另一个论点是关于自然的本质,在很多观察家眼中,这是一个很神圣的话题。比如,新西兰生物学家迈克尔·丹顿(Michael Denton)认识到机器设计原则跟生物学的某些原则有着巨大的不同。丹顿写道,自然实体具有“自我组织性……自我参考性……自我复制性……交互作用性……自我塑造性……以及整体性”。他说,生物形式只能从生物过程中创造,因此这些形式也是“稳定不变……无穿透性……而且是最根本的”真实存在,跟机械比起来,它们是一个不同的哲学门类。
正如我们所看到的,事实上,人们也可以运用这些原则设计机器。了解大自然最具智慧的设计范式——人类大脑,正是大脑逆向工程项目的目的。丹顿说生物系统是一个完整的整体,这一观点不太正确,同样,认为机器应该是完整的模块的观点也不尽正确。我们已经对自然系统中的功能单位进行了清晰的层级划分,尤其是大脑,对人工智能,我们也使用了类似的方法。
在我看来,若计算机不能顺利通过图灵测试,那些批评家们就不会罢休。但即使如此,这道门槛也并不清晰。毫无疑问,对于流行的图灵测试是否真实有效,很多人都有争议。也许我也是这些批评家队伍中的一员,和他们一样,对早先的论据嗤之以鼻。当关于计算机通过图灵测试有效性的争论真正风平浪静时,计算机或许已经远远超过未曾被增强的人类智慧。
这里我强调的词是“未曾被增强的”,因为“智慧得到增强”正是我们能创造出这些“思维小孩”(汉斯·莫拉维克对它们的称呼)的原因,将人类层面的认知模式和计算机固有的速度和精确度结合起来,得到的将是无穷的威力。但这并不是火星上的智能机器进行的一场外星人入侵——我们创造这些工具,是为了让自己更有智慧。我相信,大部分观察家会同意我的这个观点,即人类的独一无二之处在于:我们制造工具,而工具让我们走得更远。
【注释】
[1]表观遗传是指DNA序列不发生变化,但基因表达却发生了可遗传的改变。——编者注
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。