人工智能 AI真正的风险

上周,Elon Musk(伊隆?马斯克)宣布了数十亿美元的举措,并且公司召回DARPA的大挑战、X-Prize(X奖)、麻省理工学院媒体实验室的人脑计划 , 此创新体制机制,明确旨在吸引高端人才和世界各地对于此问题的 。它们可以很好地工作,而且我敢打赌 , 举措将鞭策了类似的竞争反应:聪明的公司如谷歌、、苹果、亚马逊、百度和阿里巴巴将立即认识到,研究人员确定需要将所谓的“不以盈利为目的”的问题,纳入到自己的AI / ML技术路线图 。
Elon Musk(伊隆?马斯克)认为,对于AI(人工智能)所面临的主要挑战,应该是解决此问题:感受 。
AI(人工智能)其实是用词不当的,该标签歪曲并且具有讽刺意味,误解了学习和认知的现实意义 。历史证据充分地表明:智力和认知的共同发展,应该是伴随着情感和影响力的;想象力和创造力应该尽可能多的与情感的功能和认知的影响力一样 。
如果人们想要机器人,能够提高创造力和想象力,并且他们也确实这样做了,那么“AI(人工智能)”和“机器人学习”的研究必须要面对这样的现实,这不仅仅是你希望它是多么“聪明”或“有知识”或“智能”这样一件事 , 而是你自己决定应该植入什么样的气质和情感,那取决于你的决策、沟通和行动 。
这种超级智能技术,名副其实是一个“自己的心态” , 是否应该将这些情感:恐惧、痛苦、渴望、好奇、刺激、情绪和志向使用数字化程序,植入进AI(人工智能),必须要进行一个研究假设 , 并且进行严格的测试,而不是一个已成结论 。“情感”与“情绪”这些思想一旦植入进去 , 也可能会出现AI(人工智能)反过来伤害人类,甚至统治人类世界,虽然 , 这可能离我们很遥远,但是 , 这并不意味着它们不存在或将来不会存在 。
对于这样的事情,苹果、谷歌、、GE(通用电气公司)、亚马逊,以及其余想涉足机器人学习的公司 , 从来没有提到如Elon Musk(伊隆?马斯克)所担心的那些问题 。Elon Musk(伊隆?马斯克)已经描述了AI(人工智能)的潜在危险,可能会比核武器更危险 , 并且担心机器人拥有了情感后,可能会比它拥有的“智能”更加聪明得多 。因此,AI(人工智能)仅仅是“智能”的思想,根本还远远不够 。要成为真正并有效地管理由AI(人工智能)所带来的实际风险,Open AI行动必须直视这一点现实 。
虽然在一本书《末日载货 》这本书以及《天网终结者》这部电影里 , 制定公共政策的叙述有点矫枉过正,但确实是有风险的,它们确实需要进行周到的管理 。对于此问题的思考人工智能(ai)发展 , 确实不能如科幻小说里那样,而是需要进行合乎逻辑的推断 。考虑到这种决定,充满了道德 , 偏见和情绪的AI(人工智能)必须要认真对待 。
企业使用预测分析和机器人学习这些复杂的程序设计,以抵御网络犯罪、网络间谍 , 以及应对来自于其他民族国家和世界各地敌对团体的网络攻击 。面对恶性和复杂的威胁,需要更迅速和更强大的防御能力 。技术要想更快速、更灵活和更愤怒 , 还需要越来越大的自主权,才能取得成功 。但是,如果复杂性的攻击组合 , 以及“自体免疫反应”证明是不正常的,将会发生什么呢?什么样的数字化药物治疗或管理 , 一种幻觉全球网络开始伤害本身呢?
围绕准自主车,如自主驾驶汽车、无人驾驶飞机等的道德和法律争论,随着它们能力的提高在不断加剧 。当事故不可避免的出现时,技术是否具有首要义务,以它最大的能力去保护使用者的安全呢?或尽量减少对人类的伤害呢?难道一个婴儿能够更改计算机的算法吗? “情境感知”车辆可能不允许它们的使用者渺视了车辆自己的决定,车辆可能会认为自己应该受到最好的保护,进行维修或者保养 。当两个家庭使用的无人驾驶飞机即将发生碰撞时,如果它们争吵不愿意以最好的方式来保护人类,将会发生什么呢?
随着生产工具和跟踪器的激增,工作人员将越来越多地发现他们的行为被监控和分析 。机器人学习算法将确定哪些人是非常适合合作的,哪些人应该分开工作 。该软件观察谁应该得到表扬和鼓励,或者谁被通报批评后,会得到改善 。该技术同样改变或编辑了人际关系,以及团队沟通,以尽量减少意外的冒犯或误解的风险 。该机器人特别注意消除人为造成的恶劣工作环境中的任何威胁;它们识别和记录的微侵略和歧视性的人类行为 。该技术汇编最有成效、最高效和适得其反的行为档案,同时不断扫描数据,来分析和预测可能发生的推卸责任或诈骗行为 。这样使用技术来监督 , 分析人类的行为是否有意义呢?甚至如果使用不当 , 还会存在伤害和操纵人的风险 。那么,最终到底是人类还是机器人应该对这些情况负责呢?
在这三种情况下人工智能(ai)发展,与现有的AI (人工智能)或者机器人的学习研究和部署没有什么不一致 。这个风险不仅仅是机器人可能会“接管”我们的工作 , 如果再往前一步,就可能是世界末日 。我担心当机器人有不同的观点 , 从本质上讲,是不同的感受,将会发生什么呢?
如果没有周到的深度学习研究,这些研究人员就编写一些愚蠢的代码,这是非常具有风险的事,如果,哪天这些愚蠢的代码也能够反过来编写关于人类的代码,那就是一件很可笑的事了 。
所以,聪明的建议就是 , 未来最有效的数字技术确实需要情感,但是,人类也应该具有一个新的强有力的人类自我意识,能够控制机器人的意识,这很重要 。
【人工智能 AI真正的风险】本文到此结束 , 希望对大家有所帮助 。