千名大佬联名封杀所有比GPT-4强的AI

就在刚刚,网上曝出了一封千位大佬的联名信,要封杀所有比GPT-4强的AI!
在这封联名信上 , 超过1000位大佬呼吁——我们应该立即停止训练比GPT-4更强大的AI系统,暂停期至少6个月 。
目前签名的有 , 图灵奖得主 、 AI首席执行官Emad 、苹果联合创始人Steve 、纽约大学教授马库斯、马斯克,以及「人类简史」作者Yuval Noah 等等 。
看看这根本看不到头的签名,大佬含量过高了 。
能够集齐一千多位大佬的签名,想必这项联名已经准备多时了 。不过,同样作为图灵奖得主的Yann LeCun并没有签署:「我不同意这个前提 。」
另外,签名中还出现了一个所谓的「 CEO」,但根据马库斯和一众网友的推测 , 应该不是本人签的名 。整件事非常扑朔迷离 。
截止发稿前,他还特地@了一下Sam 确认消息 。
以下是公开信原文:
正如广泛的研究和顶级人工智能实验室所承认的,人工智能系统对社会和人类构成较大的风险 。《阿西洛马人工智能原则》中指出,高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理 。然而,尽管最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理 。
现在,人工智能在一般任务上变得与人类有竞争力,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量 , 胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖 。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发 。同时 , 这种信心必须得到验证,并随着系统的潜在影响的大小而加强 。最近关于人工智能的声明中指出,在开始训练未来的系统之前人工智能专家系统网易,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度 。我们同意,现在就该采取行动 。
【千名大佬联名封杀所有比GPT-4强的AI】因此,我们呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月 。这种暂停应该是公开的、可核查的,并包括所有关键参与者者 。如果这种禁令不能迅速实施,政府应该介入并制定暂停令 。
人工智能实验室和独立专家应在暂停期间 , 共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督 。这些协议应该确保遵守协议的系统是安全的 。值得一提的是,这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发 。
人工智能的研究和开发应该重新聚焦于,使目前最先进和强大的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚 。
同时人工智能专家系统网易,人工智能开发者必须与政策制定者合作 , 大幅加快开发强大的人工智能治理系统 。这些至少应该包括:专门针对人工智能的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力的硬件;出处和水印系统帮助区分真实和合成,并跟踪模型泄漏;强大的审查和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金以及资源充足的机构,以应对人工智能可能导致的巨大的经济和政治破坏 。
人类可以通过人工智能享受繁荣的未来 。现在,我们成功地创建了强大的人工智能系统,可以在这个“人工智能之夏”中获得回报 , 为所有人的明确利益设计这些系统 , 并给社会一个适应的机会 。停止使用其他技术可能会对社会造成灾难性影响,因此我们必须保持准备状态 。让我们享受一个漫长的人工智能夏天,而不是匆忙进入秋天 。
本文到此结束,希望对大家有所帮助 。