人工智能会杀死人类吗?

人工智能有两种,“弱人工智能”没有自主意识 , 只是实现人类意图的工具 。“强人工智能”有自主意识,有自己的意图 。这两种人工智能都可能导致巨大的灾难,甚至是人类的灭绝 。但这只是可能性 , 不是必然量子计算机 人工智能,人类应该有办法去防范风险,而且必须这么做 。
弱人工智能怎么会导致人类灭绝?一种可能性是出bug,比如人类用人工智能去管理核电站 , 结果全出bug造成环境灾难 。或者人类用人工智能去管理核武器,结果出bug引发核大战 。所以 , 对于弱人工智能的应用,人们已经意识到要特别小心 。不仅是人工智能,所有科技设施都要评估出bug的风险,不要贪图先进而忽视风险 。
例如“核机器人”,用于核电站里的故障检测等人类做不了的事 。设计者就要求,绝不能有任何“人工智能” , 不能出bug,出了问题谁也负不了责任 。核机器人 , 就只能是人类远程操作的机器,绝不能出忽然出bug自行其事 。科学家、工业界和政府都已经认识到了,包括人工智能在内的科技设施,都要评估其安全风险 。在有意识地防备之后,弱人工智能这方面的风险并不特别高 。可以预见弱人工智能会继续发展,在决策、推理、理解、识别等各方面的功能越来越强大,人们的顾虑不是太多 。

人工智能会杀死人类吗?

文章插图
人工智能会杀死人类吗?

文章插图
更加危险的是“强人工智能”,它有自主意识 , 问题要复杂得多 。有自主意识的强人工智能非常危险,人类甚至没有什么好办法保证安全 。强人工智能极度可怕的是,它可能脱离人类自我进化,能力指数爆炸 , 就象自我对弈学习快速进化,变成能力远超人类的超人工智能 。就象提出“奇点”论的库兹维尔说的,人工智能到了奇点爆炸以后,历史就不属于人类了 。人工智能会是另外一个物种,看人就象人看蚂蚁一样,是灭掉还是留着,不是人能控制的 。
科幻作家阿西莫夫曾经设想过“机器人三定律”,启图让机器人以人类利益为最高准则 。但如果能力远超人类的机器人真有自主意识,从技术上来说,它完全可能抛弃这个所谓的“准则”,或者破掉人类控制它的“小把戏” 。既然是“自主意识”,从思想上来说,就没有什么是不可以想的 。能力远超人类的机器人完全可能产生灭绝人类的想法,没有什么科学定理或技术手段能保证它绝对不这样想 。
当然由于强人工智能非常难,如何让机器产生自主意识,科研人员还不知道 。所以现在这是一个科幻问题或者说假设性的问题 。但也有可能没多久计算机和脑科学研发就取得突破,把它变成一个现实问题 。到时全球社会肯定会非常重视强人工智能的安全问题,提出种种对人工智能研发的限制,企图保证人类的安全 。
但是,一旦科研届真的可能在强人工智能上取得“危险的突破”,人类社会就会面临一个十分为难的“二难选择”:是为了安全放弃让人工智能自我强化,还是冒险放手让人工智能自我意识与能力飞速发展?
这个问题并没有这么容易回答 。也许有些国家会选择冒险实现技术飞跃,或者大富豪们希望发展出超级人工智能治好自己的?。?踔寥米约河郎?。所以,理性地看,即使人类社会对强人工智能研发下了禁令,最终还是会有组织秘密研发,打开魔盒 。
当然量子计算机 人工智能,超人工智能也未必就一定要灭绝人类 。只是选择权不在人类手上了 。未来也许一片美好,也许人类灭绝 。
【人工智能会杀死人类吗?】本文到此结束,希望对大家有所帮助 。