今天的孩子或已活不到成年!专家称AI崛起,每个人都会死去

有些人已经被吓坏了!
随着人工智能GPT越来越火,进化速度越来越快,一位机器学习专家可能已经要疯了 , 他说他的女儿可能已活不到成年了 , 他建议关闭所有的大型GPU集群,如果谁不关,不管它在哪个国家,都应立即派飞机空袭将其炸毁,因为一旦一个比人类更聪明的AI问世,地球上的每个人都会死去!
这位专家名叫埃利泽·尤德科夫斯基( ),是来自美国的决策理论家、人工智能研究人员和作家,在加州伯克利的非盈利组织机器智能研究所领导研究,也是该研究所的联合创始人 。
尤德科夫斯基研究的主题是智能爆炸 , 一个和宇宙大爆炸类似的概念,更多的时候被称为技术奇点,他的思想对另一位著名人物,牛津大学哲学家尼克·博斯特罗姆的畅销书《超级智能》产生了影响 。
博斯特罗姆提出的都是关于未来不容乐观的理论人工智能玩超级玛丽,包括存在风险、人择原理、人类增强伦理学、超智能风险和逆转测试等,曾两次被《外交政策》列为全球百大思想家名单人工智能玩超级玛丽,马斯克和比尔·盖茨都推荐了他的畅销书《超级智能》,超智能一词也因此得到普及 。
博斯特罗姆认为 , 超级智能的出现可能会成为人类灭绝的原因之一,一台具有接近人类智力水平的计算机可以在数字时间尺度上引发智能爆炸 , 从而迅速创造出如此强大的东西,以至于它可能有意或无意地摧毁人类 。
【今天的孩子或已活不到成年!专家称AI崛起,每个人都会死去】最早意识到人类技术发展速度加快的是波兰数学家斯塔尼斯拉夫·乌拉姆 , 他在1958年和冯·诺伊曼的一次对话中提到了这个概念 。真正提出智能爆炸概念的,是英国数学家欧文·古德,他在1965年提出,自我进化的 AI 系统将迅速从低于人类的一般智能过渡到超级智能,“毫无疑问,智能爆炸将会出现 , 人类智能将被远远抛在后面 。”
技术奇点( )一词,则是科幻作家弗诺·文奇1982年在卡内基梅隆大学召开的美国人工智能协会年会上提出的,大概是奇点对应于宇宙大爆炸,技术奇点对应于智能爆炸的意思,所以我感觉还不如就叫智能大爆炸好一点 。
137.98亿年前无垠中一个奇点大爆炸,导致宇宙时空的诞生,并最终演化出我们这样具有意识的智慧生命 。
2022年技术奇点发生大爆炸,导致宇宙在时间和空间之外,另一个基底结构的诞生:信息 。当然,信息这个维度其实是一直存在的,只是从现在开始,它将溢出有机智能的大脑,在宇宙中广泛存在 , 成为和时空一样 , 可以被更广泛智能“意识”的宇宙万事万物的基本属性 。
所以2022年应该叫智能大爆炸元年,今年就是智元1年 。
按照尤德科夫斯基的想法,也许在几十年甚至几年之后,无机生命就会写下悲壮的历史:智元零年,技术奇点爆炸,智能生命走上了历史舞台,仅仅几十年后,有机生命就彻底走进了地球生命演化的历史 。因为他说女儿可能活不到成年了嘛 。
尤德科夫斯基曾被彭博社评为AI“末日预言家” , 最近曝出1100多名科技大佬、AI领军人物签署公开信,要求暂停大型人工智能研究6个月后,尤德科夫斯基接受了《时代》杂志的采访,他说他没有签署公开信,因为这封信低估了事情的严重性,提出的要求也无法解决问题 。
那要怎样解决问题呢?尤德科夫斯基认为,超越人类智力的通用人工智能——AGI的威胁已迫在眉睫 , 解决方案只有一个,那就是将它们全部关闭 , 所有大型GPU集群都必须关闭,训练AI必须设定计算能力的上限,即使是政府和军队也不能例外 。
如果有谁违反,尤德科夫斯基的建议是,立刻派战斗机将这些流氓数据中心炸毁 。
尤德科夫斯基深感担忧的是 , 如果人们继续建造越来越聪明的人工智能,他的女儿将无法活到成年,其他人的孩子也会死去 。
我感觉情况可能并不是如此悲观,但也好不到哪儿去 。
事实上,未来最有可能的路径是,人类将和人工智能一起 , 制造出超级智能机器,而人类会把意识上传,和人工智能融合在一起 。
只是这种意识可能会发展成集体意识,就像蜂群一样,未来可能不会再有现在意义上的单独的人了 。
这就和数万年前尼安德特人和我们的智人祖先春风几度,最终把自己的印记留在了现在除非洲以外的所有智人身上一样,他们并没有完全灭绝,而是在我们的身上继续存在 。
人类和人工智能可能同样也是如此,有机智慧消失了 , 但最有价值的智慧仍然会留在这个宇宙中,并更容易地到达更遥远的宇宙空间 。
事情是这样,就不会是那样!未来的智能文明我们现在可能还无法理解,甚至无法想象 , 但该来的总是会来 , 宇宙演化谁又能阻止得了呢?
只是超级人工智能 , 可能就是我们人类的最后一项发明了 。
参考:
本文到此结束,希望对大家有所帮助 。