即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。
在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”
但马斯克没有提及他是如何计算风险的。
人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(RomanYampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。
“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。
《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。
扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。
“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”
去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。
尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(SamAltman)共同创立的公司。
在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。
“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”
马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。
“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”
据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。
该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”
更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。
“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(GeoffreyHinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”