一、图灵的故事
一百年前,欧洲人发明了一种能够做乘法的机器,用来处理较大的数字乘法 。比如输入“128” , 再通过摇右边的摇杆输入“21”,就会算出乘积是“2688” 。那时还没有电子计算机,但是这就是人们用来加速计算的机器 。
后来德国人在二战时发明了。
它是一种加密用的机器,输入“A”时,机器可能显示的是“C”,这样加密后的信息就可以直接发给友军,即便对方截获了加密的信息 , 也很难破解 。
图灵(1912年6月23日-1954年6月7日,英国著名数学家、逻辑学家、密码学家,被誉为“计算机科学之父”、“人工智能之父”,是计算机逻辑的奠基者)在此做出了巨大的贡献 , 他破解了德方的加密机器,从而让英国获得了战争的胜利 。
图灵是一位天才数学家,他有几个著名的贡献——
第一,他提出了“图灵机” 。图灵说有一种逻辑计算结构 , 可以把它想成一个虚拟机器,所有问题简化为二进制的0和1之后,通过逻辑计算就可以得到最终答案 。图灵机的概念后来果然成为现实,我们现在使用的所有编程语言都可以说是“图灵完备”(让一切可计算的问题都能被计算,这样的虚拟机或编程语言就叫做是“图灵完备”的) 。
第二,图灵在自己的一篇论文中提出“图灵测试” 。测试让一个人类考官提问 , 左边回答的是计算机,右边是人类回答,当人类考官无法判断哪个是计算机,哪个是人的时候,则可以认为该计算机通过了图灵测试 。今天的智能对话机器人已经通过了图灵测试,比如微软的“小冰”、的“Siri”、亚马逊的“Alexa”等等 。
但同时图灵测试也给人类带来了一个巨大的问题:图灵测试让我们认为人工智能的终极目标就是机器变得和人一样 。很多人认为计算机在以后真的会变成人、替代人,让人类失业 , 或是计算机要毁灭人类 。所有这些想象,都是从图灵测试中来的 。
这个假设其实根本是错的 。爱因斯坦曾说过一句话:“只有两样东西是无穷的,第一是宇宙,第二是人类的愚蠢,而我对前者是否无穷并不肯定 。”
大仲马也说过:“让我最无奈的是,人类的思维是有限的,但人类的愚蠢却是无限的 。”
很多心理学家都总结过人类会犯的各种错误,诺贝尔奖获得者 在他的著作《思考,快与慢》中总结了他和其它学者发现的非常多的人类的谬误 。
在很多场景下 , 人类做出的决策,都与正确理性的决策相差甚远 。这些谬误意味着,犯错误这件事会永远困扰着人类 。不是因为人类想犯错 , 也不是因为人类教育程度不高,而是因为人类大脑的设计并不完美,在快速处理一些问题时,人类大脑会选择走捷径,这时聪明的人类会犯愚蠢的错误 。
也就是说 , 人类并非完美的物种 。所以,我们人类为什么非要让计算机把超越人类作为最终目标呢?我们真的需要计算机像人类一样做决策吗?完美模拟人的智能机器,实际上也并不智能 , 当一个机器完全模拟了人的智能,就会像人一样犯各种错误,没有什么智能可言 。
我们可以定义一下“弱人工智能”():比如下围棋的能力很强 , 但它不会开车;微软的人脸识别功能非常好,但让它以同样的算法下围棋它却做不了,这些单一用途的人工智能都叫做“弱人工智能” 。
而强人工智能() , 则是机器可以做人类做的任何事 。我们说到人工智能的时候常常会想象强人工智能,但是恰恰是弱人工智能能够在很多场景帮助人类做更好的决策,以目前机器学习的发展来看 , 强人工智能一方面不容易实现,另一方面也没有必要实现 。
所以这里有三个结论
完全模拟人的机器并不智能人工智能的发展不一定非要完全依赖于模拟人 。“弱人工智能”强于“强人工智能”
二、费曼的故事
理查德·费曼(1918年5月11日-1988年2月15日,1965年诺贝尔物理学奖得主)是著名的物理学家 , 他曾讲过一个故事——
某天下午,费曼坐在巴西的一家咖啡馆中思考,这时进来一个卖算盘的日本人,打算向咖啡馆推销算盘 。这个日本推销员说用算盘更便于记账(当时还没有计算机) , 但是咖啡馆老板表示不想买 。
咖啡馆老板说:既然你说这个东西计算很快,那我随便找一个顾客(碰巧就是费曼),你们两个比试一下,看看机器和人,谁的运算更快 。比试开始,首先是算加法,费曼的速度完全没办法和算盘比,他还没读完数字,日本推销员就已经用算盘算出得数了;后来费曼说要增加难度,算乘法,这时用算盘需要更多步骤 , 所以费曼和算盘的速度差不多了;这下,日本推销员也说了,这不行,我们要找一样更难运算的:开立方根 。费曼同意了 , 于是咖啡馆老板随机选定了1729.03这个数字 。费曼作为一个物理学家,碰巧知道12的立方是1728(一英尺等于12英寸,求立方体体积时,这种运算是很常见的),所以他只需要知道剩下的1.03怎么开立方了,很快在几秒钟内,费曼通过使用“泰勒公式”算出了小数点后5位的得数 , 给出了12.0025,这个数字和正确答案12.00238的误差是10万分之一 。几分钟后日本推销员才喊出12,费曼完胜算盘 。
人与机器的角逐 , 实际上各有优劣:人的直觉和经验是机器无法模仿超越的 , 而机器在弱人工智能方面也是胜过人类的 。曾有一个信神的朋友跟我们讨论人工智能时说:“我不相信人工智能会比人厉害,因为神是万能的,人就是神造的,所以人造的东西肯定不如神造的好 。”那计算器呢?一个简单的人造计算器没有智能,但是可以在计算6位数乘以6位数的乘法上胜过人类 。一百年前那个人造的手摇计算机在计算速度方面已经超过人了 。
【人工智能,人与机器的角逐】机器确实有比人做得更好的地方 。但是在需要直觉和经验的场景下,机器往往无法胜过人 。人和机器在做决定时 , 用的是两种不同的方法 。人是用直觉,直觉是人将各方面知识聚集在一起形成的 , 直觉让人快速得到一个解决答案 。而机器则用的是“梯度下降”算法,这是在求解机器学习算法的模型参数时,最常采用的方法之一 。
机器做决策只有这一个方法,就是先让人类找到“损失函数”,机器做的就是让损失函数最小化 , 从这方面看,机器没有任何智能——人写出损失函数,然后让机器执行优化算法 。所以对机器的期望不能太高:机器在弱人工智能层面可以做得很好 , 但是用梯度下降的范式不可能产生强人工智能 。
现在我们常说的人工智能,与以前的人工智能最大的区别是:以前,人通过写计算机程序来制定规则 , 然后输入一些数据,让计算机算出结果;而现在,是人把数据和结果输入进去,通过监督和非监督学习的算法 , 让机器来学习并得到规则 。以前的人工智能叫做“专家系统”,是基于规则的,现在的人工智能则更多是让系统根据数据,去自动优化而学习底层逻辑 。
就如所有机器一般,人工智能在某个方面可以很强大,但是复杂的算法常常被掩盖在简单的界面里 , 使用者在不理解底层逻辑的情况下使用,就会产生极坏的效果 。就好比把机关枪交给一个三岁的小孩去用 , 结果会难以想象 。
举几个例子:
我曾经从一张Uber的自动驾驶汽车的照片里发现一处不对劲的地方:左转红灯亮的时候,车居然向左转弯行驶了 。原因多半是训练自动驾驶时使用了人类驾驶的数据记录,有人在左转红灯亮的时候左转过,导致机器学习到了这样一个行为 。所以人并不是一个完美的物种 , 如果机器完全向人学习的话,也会学到人的一些坏毛病 。
几年前,几位北航的教授做过一个研究,在北京地铁可以看到,人们从一个站口进去 , 又从另一个站出来,可以画出一些曲线 , 把人分成几种类型 。例如可以看到游客会去圆明园、香山;购物者会去西单、王府井;而小偷的行为曲线与正常人群是非常不一样的 。
是否可以用人工智能,分析所有人的行为轨迹,找出小偷呢?可以 。
但是还有另一种分析方法,则是比较危险的 。美国新泽西州的警察总监是以为女士,她说:我们用了大数据技术,能够算出什么样的人会比较容易犯罪 , 并算出他们在什么时候会犯罪 , 这样就可以提前预警 。
这让我们想起科幻片《少数派报告》,这里面最大的问题就是,这样的计算依赖的是人不可改变的数据的平均值:平均来讲,黑人的犯罪率更高,但是并不代表每个黑人的犯罪率都高,用平均值算出来的结论如果推广开来,对黑人的个体就是很不公平的,而在很多场景下是很危险的 。
从算法上讲,我们不能只看平均效果,而是要看个体行为 。这与抓小偷的区别在于:美国的警察总监抓罪犯的方法,是根据对方的年龄和肤色这些自身无法改变的因素来判断的,这样会冤枉好人;而前面抓小偷的方法,则是根据对方的行为,根据行为的判断就没有问题 。
很多人工智能算法,试图追求的都是平均效果,但如果聚焦到人的话,结论就会完全相反 。可见 , 人工智能不是万能的,结果要靠人去解读人工智能与计算机围棋 , 人和机器要一起合作才是最优的 。人工智能有两个非常深刻的课题需要解决,第一是过度拟合的问题(假如给了系统太多的自由度 , 让它学到一些不该学的东西,那么他在样本内的表现很好,但是样本外就很差了);第二是因果关系的问题(即便能发现两个变量的强相关关系,也不能代表其中一个导致了另一个的发生) 。
这两大挑战,是人工智能目前急需解决的问题 。
三、冯诺依曼的故事
冯·诺依曼(1903年12月28日-1957年2月8日,数学家、计算机科学家、物理学家,是20世纪最重要的数学家之一人工智能与计算机围棋,也是现代计算机、博弈论、核武器和生化武器等领域内的科学全才之一 , 被后人称为“现代计算机之父”、“博弈论之父”)是人类历史上一位非常聪明的人 。
1945年之前,他和费米、费曼一起参与“曼哈顿计划”,为美国研制原子弹作出了贡献;接着 , 他又开始研究计算机,帮美国研发出来最早的计算机(ENIAC和EDVAC) 。图灵是将计算机逻辑结构想清楚 , 冯·诺依曼则是把计算机体系真正实现出来(现在我们的计算机还是在沿用所谓冯·诺依曼体系),所以二人都是“计算机之父” 。
冯·诺依曼在数学、物理学、工程学、经济学、管理学等诸学科的贡献都极为重大 。他在1944年和发表了一本博弈论的著作,直接影响了经济学的方法论 , 直到今天我们经济学中的很多研究还在用他们的博弈论的思想和他们提出的效用函数这样的工具 。诺贝尔经济学奖于1969年首次颁奖,可惜冯·诺依曼在1957年就去世了 。
不同学科的研究方向都各不一样 , 目标也不一样 。比如:
传统的计算机科学和机器学习人工智能,都是在做预测,可以锻炼出很强的预测能力 , 如同“地心说”本是一个错误的理论,但根据这个理论 , 人们能预测到明天的太阳会东升西落,并算出日出和日落的时间,所以“地心说”可以做出很好的预测,但是不能做出很好的解释;
解释能力来自于对底层运行机制的了解 , 这个是经济学家感兴趣的主题 。举例来说,“进化论”可以解释人类为什么是从猿猴进化而来的,但却没办法预测我们人在未来会进化成什么样子,所以“进化论”有很强的解释能力,但是没有很强的预测能力 。
有没有办法让人在这两方面同时做好?目前因为学术分工 , 计算机科学家在研究方法上把预测能力推向了极致,而经济学家也有很多方法把解释能力推向极致 。
把两者结合起来是我们的终极目标,这方面做得最好的是诺贝尔经济学奖获得主赫伯特·西蒙(1916年6月15日-2001年2月9日 , 20世纪科学界的一位通才,其研究工作涉及经济学、政治学、管理学、社会学、心理学、运筹学、计算机科学、认知科学、人工智能等领域) 。西蒙是目前人类历史上唯一一位同时获得了经济学最高荣誉诺贝尔经济学奖和计算机科学最高荣誉图灵奖的人 。他对各个领域都贡献巨大,我们需要像他和冯·诺依曼这样的人,既懂得经济学的底层逻辑,能够透过现象看本质,又具有科学家的思维,能用计算机科学思维做出很好的预测 。
人工智能的两大挑战(过度拟合和因果关系),也许可以用经济学的方法来指导 。经济学的因果分析方法在过去20年间得到了非常大的发展 , 而这些模型对计算机科学家来说是很陌生的 。人工智能和经济学因果关系研究的未来发展需要互相参考对方的方法,也许根据冯诺依曼的理论发展出来的经济学方法最终能解决一些困扰着根据图灵的理论发展出来的人工智能的挑战 。
通过上面三个小故事,我们回顾了过去100年间人和机器的角逐 。结论其实很简单:我们不需要担心机器替代人类,也不需要机器以人类智慧为最终目标 , 当机器的强大运算能力和人的强大经验结合起来的时候,当经济学的因果分析方法能给人工智能的两大挑战提供解决方案的时候,人工智能的终极目标就实现了 , 人工智能才是真正的人(人类)工(工具)结合的智能 。
以上文章是根据我在微软和清华经管学院合办的“AI商学院”做的整理的 。
本文到此结束,希望对大家有所帮助 。
- 马云与马斯克在2019世界人工智能大会开幕上的对话实录
- 我国人工智能的领先点有哪些?
- 江苏省虚拟现实与人工智能专业建设与创新研讨会召开
- AI绘画快报:聊聊AI人工智能绘画
- 人工智能攻克了象棋围棋,那么是否可以应用到斗地主?
- 人工智能对人带来哪些危险?
- 热门专业也能就业尴尬!人工智能专业报考建议,6个思路避免入坑
- 人工智能会影响哪些工作?这些员工面临的风险最大
- 人工智能现在处于什么发展状态?
- 现代科学皇冠上的明珠,人工智能最全A股名单!