人类通常很擅长识别何时出错,但人工智能系统做不到。根据一项最新研究,由于数学存在数百年的悖论,人工智能通常会受到固有限制。
剑桥大学(University of Cambridge)和奥斯陆大学(University of Oslo)的研究人员表示,不稳定性是现代人工智能的致命弱点,一个数学悖论显示了人工智能的局限性。神经网络是人工智能中最先进的工具,可大致模仿大脑中神经元之间的联系。研究人员表明,目前还没有算法可以生成稳定和准确的神经网络,除非在特定情况下。据外媒报道,这些研究人员提出了一种分类理论,描述了何时可以训练神经网络以在某些特定条件下提供可信赖的AI系统。
图片来源:剑桥大学 深度学习是用于模式识别的领先人工智能技术,用于可诊断疾病或通过自动驾驶预防交通事故。然而,许多深度学习系统可信度不高且容易被欺骗。 剑桥大学应用数学和理论物理系的合著者Anders Hansen表示:“许多人工智能系统不稳定,并逐渐成为一个主要问题,尤其这些系统越来越多地用于疾病诊断或自动驾驶汽车等高风险领域。如果人工智能系统一旦出错,就会造成实际伤害,因此提高其可信度非常重要。” 研究人员发现的悖论可以追溯到20世纪的两位数学巨人:Alan Turing和Kurt Gödel。在20世纪初,数学家们试图证明数学是科学的终极一致语言。然而,Turing和Gödel展示了数学核心的一个悖论,即无法证明某些数学陈述是真还是假,一些计算问题也无法用算法解决。而且,无论数学系统有多丰富,以描述学习算术,它无法证明其自身的一致性。 几十年后,数学家Steve Smale提出了21世纪18个未解决的数学问题的清单。其中第18个问题就涉及人类和机器的智能极限。 研究人员说,由于该悖论,在某些情况下可以存在良好的神经网络,但无法建立一个本质上值得信赖的神经网络。研究人员之一、奥斯陆大学(University of Oslo)Vegard Antun博士表示:“无论数据多么准确,我们永远无法获得构建所需神经网络的完美信息。” 无论训练数据量如何,都无法计算出良好的现有神经网络。无论算法可以访问多少数据,它都不会产生所需的网络。Hansen表示:“该论点与Turing的观点类似,无论计算能力和运行时间如何,都存在无法解决的计算问题。” 研究人员表示,并非所有人工智能都存在固有缺陷,但它仅在特定领域使用特定方法才可靠。应用数学和理论物理系的合著者Matthew Colbrook博士表示:“问题在于你需要保证的领域,因为许多人工智能系统都是一个黑匣子。在某些情况下,人工智能是完全可以犯错的,但它需要诚实地对待。但这一点我们在许多系统中并没有看到,没有办法知道系统什么时候更有信心或缺乏信心做决定。” Colbrook表示:“当20世纪的数学家发现不同的悖论时,他们并没有停止研究数学。他们只需要找到新的路径,因为他们了解局限性。对于人工智能来说,可能也需要改变路径或开发新路径,以构建能够以可信赖和透明的方式解决问题的系统,同时了解它们的局限性。” 未来,研究人员将结合近似理论、数值分析和计算基础,以确定哪些神经网络可以通过算法计算,哪些可以稳定可信。正如Gödel和Turing提出的关于数学和计算机局限性的悖论导致了丰富的基础理论(描述了数学和计算的局限性和可能性),也许类似的基础理论可能会在人工智能中开花结果。