科学家表示:彻底开发人工智能可能导致人类灭亡,你怎么看

按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己 。
而人类则受制于生物进化速度,无法与其竞争,最终被超越 。科学界把这种人工智能超越人类智慧的转折点命名为“奇点” 。
【科学家表示:彻底开发人工智能可能导致人类灭亡,你怎么看】霍金说的是人工智能的应用范围,他担忧的是人类在还没有能力控制的时候大范围应用拥有自主意识的“完全的人工智能” 。还是老话重提:科学技术有两面性,他希望人类正确应用技术,而不是贸然滥用 。
结合他曾经发表的对人类科技的看法 , 他并不担忧某项技术的发展,像他的遗作中的“超级人类”预言,他担忧技术被部分有心人应用,成为人类社会发展的障碍 。
随着近30年互联网及计算机的快速发展,虽然在生活上带来了便利;但导致了一个问题,那就是人类本身的机能在退化;
其次霍金预言人工智能 , 随着人工智能的发展 , 一部分科学家针对人类身体进行改造,形成半人半机器人(例如某些机械臂、人造心脏、DNA 改造),在经过早期的不适应之后 , 人类普遍会接受,然后对曾经的躯体进行唾弃霍金预言人工智能,形成半人半机器人(听起来像不像神话传说中的神明样子 , 一部分人,一部分奇怪的动物机体组合),在现代DNA 技术和生物科技下,这不是危言损听 。
最后 , 人类寿命的延长会导致人类对于生育(生育的本质就是种群延续)兴趣寡淡,并且随着科技发展,会觉得迟早都能生,何必像以前一样那么早生孩子,何必要孩子呢,直接DNA 合成就好了 。最后的结果就是存活的人类比较少(虽然可以通过技术快速生产),但风险在于一旦存活的人类出现突发性问题,就会灭族;或者机器出现问题,导致精子库、卵子库大面积坏死 。
所以,霍金并不是危言损听,而是人类确实存在这个风险;但目前来看,这是不可控的,可能高文明种族的必然之路吧 。
事实上,美国Space X首席执行官、大名鼎鼎的“钢铁侠”原型设计者埃?。柯硭箍耍?⑷泶词既思娲壬萍冶榷?扛谴? ,也都警告过要注意人工智能的“危害” 。
麻省理工学院教授、科学家、谷歌、IBM和微软等企业员工及与人工智能领域有关的投资者,也联名发出公开信,表达同样的忧虑 。
人工智能目前还在比较初级的阶段,按照发展可以弱人工智能和强人工智能 , 前者主要还是人在起作用,利用算法、大数据 , 使计算机拥有一些判断能力,但这种人工智能起作用的还是人 , 与计算机关系不大
本文到此结束 , 希望对大家有所帮助 。