我们必须基于这样的看法,在数据量爆炸性增长的同时还得面对智能机器的快速增长。可怕的是我们始终没有意识到这些。不是所有的智能机器都以机器人的面貌迎面走来或者通过一个虚拟形象显示,在背后实际上隐藏着智能软件。这种不可视的原因在于,人与机器之间的接口明显模糊。20世纪90年代必须在写字台旁落座,用过个人电脑的人会非常清楚:离开写字台的人,有潜力从事计算机之外的其他事务。这种现象自从智能手机出现之后完全改变了,从此以后每个时刻都把我们与大量机器相连,媒介正是互联网和便携式小型设备。眼镜也取得了很大发展,谷歌眼镜便是代表,我们在解放双手的情况下得到这个数字化伴侣的指导——或者说“被捆绑”——度过一生。同样之物也适用于人工智能,作为可穿戴之物(Wearables)很快就会直接地安装在我们身体上。您大概没有兴趣穿一件当您撒谎时它的颜色会发生变化的T恤衫吧?
其他的可穿戴之物以小型测量仪器的形式出现,例如今天被自我量化运动所利用的那些机械—物质的体象的挂件(对于这点,笛卡儿再次朝我们点头,尽管有许多自然科学的新认知仍然没有得到克服),受雇于移动的监护病房,每天您为了一种优化的健康与之联网。在各种量化中容易忘记健康是非线性的,定期的健身项目和详细的营养计划在个案中不一定会产生延长寿命的效果。听从于小型监控设备的人,同时也强调,他是自由的,自由的概念一定要严肃地追问。
我们期待每台智能机表明其对周边环境的觉察,并灵活地做出回应。在人工智能中,程序员的这类行为不会清楚地被卸载程序,而且既不针对传统、基于规则,也不针对亚符号性的人工智能。智能机器识别的内容,通过其自身的推导执行。有些类似的机器取得了惊人的能力,正如沃森或者西洋双陆棋程序(TD-Gammon)。西洋双陆棋程序与沃森有某些共同之处:开发人员。沃森开发团队由15名IBM的研究人员组成,其中有一个杰拉尔德·特索罗(Gerald Tesauro),他早在1992年就在IBM的研发中心编制了西洋双陆棋软件,此软件并不拥有丝毫关于该游戏策略与幸运的知识——以上是共同性。不同之处在于,不同于快速测试的参与者,人工制造的西洋双陆棋棋手并没有明确地按此目的被研发成西洋双陆棋大师。但是这期间西洋双陆棋程序早就书写了历史,世界级的选手在比赛中使用了由机器研发的步骤。因此发展了这种能力,机器利用它成为了冠军,比人们要研究一台学习机器的表现,对其行动的反应,也就是从它的环境获取的反馈(Feedback)更具有偶然性。有人采用其中的两台机器,原型机和克隆机,让两台机器彼此对弈。在它们掌握了西洋双陆棋游戏之前,这两台西洋双陆棋机器根本不强大,只能领会含糊的意见,只关系到一场棋局。它们如何准确地下棋并赢得棋局是它们要学习的内容。因此从试验和错误之中的学习得以顺利进行,两台机器做对手时首先采用偶然的步骤,但是随着时间流逝越来越智能化,直到它们在其2.1版,经历了150万次的棋局之后,两台机器都达到了一个水平,连人类的顶尖高手都无法企及。
首先我们熟悉监督学习(supervised learning)的方法,一种“指导学习”,这点可从我们饲养的宠物那里认识到。狗,跟我们说狗的语言,当它们表现期望时,必须放大这种声音,从而获得它们最喜爱的狗粮。机器对我们讲机器的语言,当它们要表现出“正确”时,必须放大这种声音,从而获得一种奖励(Reward)和报酬。它没有特别的胃口,因为只涉及一个数字,例如“1=干得正确”或者“-1=这是错误的”。因为有别于狗,我们可以在它出现错误行为时对其进行惩罚。当然,机器学习的目标可能会非常复杂。那么数据科学家对错误的行为比正确的行为惩罚可能更严厉,从而教会机器具备风险意识行为。机器将会尽可能尝试避免一切对它造成惩罚的措施。它会特别有意识地评估其行动,当它确信其行动得到语气上的胜利时,才会积极活动。要想关注一台学习中的机器,由此授予它宠物之名不太恰当。动物的相似性显而易见,而且的确非常值得着迷地观察,如何从完全无知逐渐成为专家,并且该专业最优秀的人物几乎都难以与之匹敌。
您下西洋双陆棋时,哪一步正确或者错误?当您必须做决断时,都不知道哪一步最好。常常在若干时间之后才显现出前一步在战略上是聪明的还是愚蠢的。西洋双陆棋:这个首字母缩略词TD-Gammon代表时间差异学习(Time Difference Learning),一种机器智能的高复杂的特殊形式。
停一停——至少我们不想成为对人工智能毫无批评的门徒。智能机器在数学门外汉的世界里对想让大数据产出更多的营业额与利润的国家、工业和经济界来说,还是某种奇特的新武器,应该可以对准所有的一切。但是如果人工智能不是某些——确切地说——智慧之石。
我们回忆一下算法学家的陈述:“人工智能是满满一麻袋方法。”完全正确,尤其因为人工智能不是某些企业乐见的可计划的商业模式。滥用人工智能的例子过去和现在在金融领域都可以找到,近十年来该领域在电子交易中使用了算法,即Algo Shop,一种算法的有价证券交易商店,其中自我学习中的交易算法能够像神奇之手那样影响金融界的表现。然而人工智能很少能够计划。这意味着,它未来的表现是无法规划的。虽然人们可以提出统计学的假设,预测它在未来日常生活中可能的表现,推论其可能的形态——因为人们熟悉其历史数据。但是这种状况是否在将来得到验证,强烈地依赖人们将要面对的未知的新数据——它们可能与历史数据相差很大。不假思索地把历史表现投影到未来,并把其商业模式建构在之上的人,最好不要相信。
人们运用一台智能机器会有若干问题。在传统编程的软件之中,一个程序员坚持要对每个单独的程序步骤以及全部程序备选路径,像它们大约在程序错误时可能出现的情况明确编码。如果缺少“IF—THEN—ELSE”这类指令,程序中这点一般不会发生任何事情,而且程序可以报告一个错误或者简单地不予评论而结束。事实上,传统的程序也许会非常复杂,如果它们准备提供许多功能,功能之间又出现交互影响,就得在编程前深思熟虑。但是最后如果有人正好熟悉其程序,在交付用户之前,就可以对其展开很好的测试。运用白盒测试(White Box Tests)让程序的所有得到明确描述的路径运行,确定程序是否表现得像详细排列那样。但是在人工智能上有趣的是,因为不是数据科学家决定哪些单独程序步骤必须经历计算过程,从而获得一个结果,只要他利用人工智能的方法箱,那么正好是它,对程序步骤独自编码。因此人工智能出其不意地显露了无法确定的行为;虽然人们可以假设下一步行为,但是的确不可能。人工智能难以测试,因为它在没有程序员明确的刺激时可以在路径和导线中运行,它事先并没有对此清晰思考过。是否由此在考虑预测质量的前提下达到更好的结果,正如人们期待人工智能的使用那样,还真不能决定。所以以下两种陈述切合实际:第一,许多门外汉谈到的人工智能是作为一只黑盒子(Black Box),人们不知道里面到底发生了什么事情,为什么;第二,是否一个人工智能系统优于一个经验丰富的人,需要中期给予支持——力求替换,也许是一个合适的选词——依赖于建造该系统的数据科学家的能力。数据的科学虽然建立在专业知识基础上,但是我们也已提过,数学家、物理学家、数据科学家是艺术家,而人工智能的创造不仅仅与技能,同时也与艺术相关。不过,如果人工智能聪明地执行,那么它就可能超过人类,而且是在它自己完全专业的领域。在此期间,人工智能常常证明这点,似乎人们还可以更久地轻视它。
买下一条小狗的人,无疑在与一只智能动物打交道,但是它表现好不好,随着时间的流逝才能显现出来。倘若它得到了良好的训练,很快就会成为主人的骄傲。假如并非如此,也可能使主人陷入绝望。人工智能也会有类似的表现。一家投资公司,使用了股票交易的人工智能机器,不能马上说人工智能机器对预期的使用目标有用或者没用。也许可以粗略地说:人工智能是否适合使用,没有人能最后肯定。至少一家企业,虽然使用了人工智能,但是不能编程,所以只能少量或者无法说明其方法论和操作模式。当人工智能在应用领域长久运行时,它怎样真正合适或者“好用”才会显现。人工智能不能马上等于人工智能,因为存在着显著的质量差异,然而在功能性方面更小。对于人类雇员的类推法,直接说一个申请工作的人适合或不适合某个岗位都有些不合道德。而且工作岗位之人的能力只有在一定时间后才能显现。以一个顾客行为的预测系统为例,要经过一段时间运行,智能机器才能离开其培训的环境,面对真实情况。也就是说,面对适时数据之后,这家企业才能形成有根据的看法,其智能机器的预测精度真正有多高。
有人可以提出反对意见,为了在城市里驾驶汽车,人们不必理解汽车的齿轮箱或者现代化的电子设备如何运转。这些相同的方法也适用于复杂的智能机器。人们必须相信人工智能做出了它承诺的东西。这无疑是正确的。富有天赋的数据科学家出色完成了其工作,大家的确可以相信人工智能的质量,因为只有这样,人工智能才能提供优化的结果,它们可以测量、领会,也许还可以重复。虽然可能存在着巨大的质量差别,门外汉几乎无法识别。但是在大数据时代可以回忆专业人员的需求与可使用性之间的缺口多么巨大。例如德国卡尔斯鲁厄的数据分析企业Blue Yonder为了他们的预测软件开发,不是招聘诸如信息工程专业的大学生,而是聘用获得博士学位的数学家和物理学家,只有少数几家德国企业会选择这种专业的毕业生。39
顺便说一下专业性:数学专业的女性比例缓慢接近50%。虽然在统计学专业已经超过这个数值,但是她们在经济数学和技术数学专业人数较少,2006年仅仅超过25%。40
同时在女性大学生中辍学的比例相对来说较高。女性大学毕业生几乎都进不了数据科学家的技术任务分配中。数学与人工智能的姻缘一如既往地保留在纯粹的男性领域。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。