马斯克等千人为何联名要求暂停AI研发:人类真在作死路上狂奔吗?

2023年3月29日 , “ of Life (未来生命研究所)”的辛顿、马库斯、马斯克等1079名科学家和知名人士联合签署了公开信:呼吁所有AI实验室,立即暂停训练比GPT-4更强大的AI系统至少6个月 。
公开信写道:广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认 。公开信表示,“只有当我们确信它们的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统 。这种信心必须有充分的理由,并随着系统潜在影响的规模而增加” 。
终于有科学家,从技术之外的视角、从人类社会和人本身来审视AI发展了,甚感欣慰 。在此之外,个人还有些观点:AI乃当代生产力的巨大跃进,人类历史的发展经验告诉我们硅谷人工智能实验室,企图通过禁令来遏制生产力的新发展,毫无作用 。
譬如:中世纪西方天主教会,利用宗教裁判所遏制科学的发展,甚至不惜烧死以布鲁诺为代表的异端数万人 , 延迟了科学的发展,但最终亦无法阻止人类进入“科学时代” 。所以,企图以行政命令方式阻止AI发展,或许能使的进化迭代延缓几个月,但推迟这点时间,有什么意义呢?
著名的英国政治家和文豪丘吉尔曾说:Theyou can look, theyou areto see 。(回顾往昔越久,前瞻眺望越远) 。当我们看不清事物本源时,最简单、直接、有效的方法,莫过于回顾人类发展史 。
人类历史发生过多次生产力跃进:火的使用、弓箭、农业、金属工具与武器、城市、文字、火药与热兵器、火车汽车飞机、电力、核能、基因科技……都是改变人类历史走向的巨大生产力跃进 。AI是这延续数万年的科技、生产力与文明进化链条中最新一环,用行政法令去禁止它或拖延6个月,注定是禁也禁不住、拖也拖不久 。
在文明早期,以及文明不够发达的古代,首先点亮科技树 , 就意味着在生存竞争中获得不对称性优势 。譬如:首先掌握铁器和战车科技跃进的赫梯,就横冲直撞、烧杀抢劫;在“大航海”时代,领先掌握航海技术和火药热兵器的西方殖民者,也凭借先进生产力和科技进步 , 四处征服、巧取豪夺 。
但人类的文明进步 , 其价值就在于:使人类摆脱了单纯的“丛林法则”,并非掌握了先进科技和生产力,就可以为所欲为 。现已是21世纪,人类文明的重要原则是法治与规则 。其中重要原则,是在鼓励创造、保证私有权利的前提下,避免有人利用先进科技和生产力 , 成为赫梯战车和坚船利炮式的殖民者,为自己利益扩张 , 使整个社会付出惨重代价 。
【马斯克等千人为何联名要求暂停AI研发:人类真在作死路上狂奔吗?】而人类社会的特点是:当掌握了先进生产力之后,就一定有人设法在竞争中追求优势 。譬如:身边就已经有人在琢磨,用写作 , 以机器的响应速度、海量数据、批量复制能力,从同行手里抢生意、赚更多钱;还有非专业人士已开始利用AI绘制各种插画,企图挤垮专业画师,如郭德纲所嘲笑的“隔行取利” 。
正如历史的发展:19世纪下半叶之前,美国西部就把火药和枪械的科技优势发挥到极致,有枪就是草头王,爱抢银行就抢银行、爱抢运钞车就抢运钞车 。但到19世纪晚期 , 即便是西部世界也建立起法治,虽没有禁止火药和枪械,但不能再随意抢银行、抢运钞车了 。
AI研发机构说:不是AI淘汰你 , 而是熟练使用AI的人在淘汰你 。既然如此,立法就不是去堵AI发展的道路,而是规范人的行为 。说到底 , 是使研发和使用AI者的行为,要符合人类公义,而非利用自己在科技上的一时之长硅谷人工智能实验室,金戈铁马、坚船利炮 。这与美国合法持枪,同时拥有枪械管理法案 , 且大多数民众都遵守法律一样,是人类社会的自我管理 。
稍早,基因科技的发展也是这规律:基因科学势不可当,是人类未来的主要进化方向之一 。因此,世界主要国家通过了相关法律 , 规范其行为,譬如:禁止克隆人类、对转基因食品严格、透明、公开管理等等,以确保基因科学合法合规、健康发展 。
AI也一样,既要发展 , 也要立规则 。个人以为:马斯克等千名科技人士对AI发展所发的公开信,如果能争取来时间,应该是用来定规则 , 制定出规范AI发展的法律和市场规则 。
不过,这种呼吁显然没有强制力,人类科技的发展总是着眼于首先提高效率 , 绝不愿让风险与伦理的考量束手束脚,只有当风险成为现实时,才会有补救措施 。在这个意义上,人类某种程度上也是在作死,因为总有一些风险大到无可补救 。
本文到此结束 , 希望对大家有所帮助 。