醉醺醺的伏特加基酒经历了Al的三番五次冒险游历跌跌撞撞才达成繁荣富强

学家们由于计算机硬件的限制,训练出的人工智能非常有限,至今仍未能达到智人的水准。不过这并没有阻止人们对人工智能的研究和探索。与计算机不同的是,我们需要更多的数据和程序才能让人工智能更加智能化。所谓”数据就是力量”,这足以显示出数据在人工智能研究中的重要性。同时,人工智能也在各行各业中得到了广泛的应用,比如语音识别、图像识别、自动驾驶等等。我感到非常幸运,能够见证人工智能的发展历程并为之贡献一份力量。计算机程序和神经网络等方面的学者聚集在了一起,首次举行了一个称为人工智能的会议。后来的发展也证明,我们当时确实创造出了一些具有开创性的工作,比如说达特茅斯会议的“学习”一词,它真正意义上的引入和意义解释,将机器学习推向了前沿。不过,虽然我们有了很多理论基础,但是在实践中我们却经历了许多困难和挫折,很长一段时间里我们的研究工作一直处于原地踏步。但是现在,随着计算机硬件和数据技术的飞速发展,我相信我们能让人工智能不再三起两落。我们学者们要继续进行更加有针对性的研究,利用新的技术不断完善人工智能的体系结构,同时也要注意社会安全问题,让人工智能更加智能化,更加可靠。我和一群神经网络和人工智能研究的同行,仿佛回到了60年前的达特茅斯,在那个夏天里,我们举行了一场研讨会,讨论了人工智能的未来。当时,我们对人工智能充满了乐观和期待,特别希望能够实现图灵对计算机所做的事情。但是,让人失望的是,60年后的今天,我们还没有完全实现这一目标。但是,这次会议对于人工智能这一学科的发展有着特别的意义,因为它形成了一种共识——让人工智能成为一个独立的学科。所以,这个会议通常被看做是人工智能这一学科真正诞生的标志。 当时,我们的研究工作充满了信心和乐观,我们声称自己的程序能够证明《数学原理》第2章中的大部分定理,但是,实际情况却和我们的期望完全不一样。虽然美国政府对人工智能非常热心,资助我们进行研究,但是,英国政府却采取了一种完全不同的做法,他们请了著名的数学家詹姆斯·莱特希尔(Sir James Lighthill)教授来专门针对人工智能进行研究。他在1973年发表了著名的“Lighthill报告”,对人工智能发展进行了批评,认为我们需要更高效的算法和方法,而不是像我们当时所做的那样简单地依靠计算机程序。虽然这个报告让人们对人工智能的前景感到失望,但是在提出很多难题和挑战的同时,也促进了人工智能这一领域的发展。现在,我们正在为了实现人工智能这一伟大目标而不懈努力,相信在未来也必将取得更多的进步。我看了关于人工智能的一份评估报告,这份报告是一位教授看过所有有关论文后写出的,后来这份报告被世人称之为“莱特希尔报告”。这份报告认为人工智能绝不可能有什么用途,因为它只适用于解决简单的问题。于是,英国政府没有在人工智能上进行大量的投资,并且此后人工智能逐渐变得少有人问津。其实,第一波人工智能浪潮的止步主要归因于以下三种困难: 首先,早期的人工智能程序完全不理解句子的真实含义,它们主要依靠句法处理来获得成功。因此,“the spirit is willing but the flesh is weak”这个句子翻译成“the vodka is good but the meat is rotten”再翻译成英语就做不对了。事实上,即使到现在,这个问题仍然存在,只不过大量的数据弥补了不理解真实含义的缺陷。计算机并不是真正理解这个句子,而只是根据哪个翻译更常见、更合适等因素来做出翻译。 第二个困难是关于知识表示和推理的问题。我们很容易通过语言来传递知识,但是计算机并不擅长利用自然语言处理来理解这些知识并进行推理判断。这就导致了我们经常在处理逻辑和推理问题时会受到限制。 最后一个困难是关于机器学习的问题。机器学习是人工智能的一个重要分支,但其最大的问题是需要大量的数据来进行学习。如果没有足够的数据来进行学习,机器学习算法就不会有效。此外,如果机器学习算法处理的数据集过于特定,其泛化能力就会下降。这就意味着算法会在看到新的数据时出现问题。 虽然过去人工智能曾经面临许多困难和挑战,但是我们现在正在进行更加有针对性的研究和尝试,相信在不久的将来,我们能够更好地应对这些问题并取得更多的进步。我发现,第二个困难是《莱特希尔报告》重点强调的“组合爆炸”问题。这意味着,当程序每次产生一个小变化时,最终都会产生出一些可以解决问题的程序,这种思路被堵死了。这就好比用试错法寻找正确的路线,但每条路上都有无数的岔路甚至岔路之间还彼此勾连,因此可走的路近乎无限多,试错法就毫无价值。 第三个困难是发现,尽管当时的人工智能神经网络简单形式可以学习表示任何东西,但它其实只能表示很少的东西,应用范围十分有限。正是由于这些困难得不到有效的解决,20世纪70年代人工智能逐渐冷却,直到专家系统和神经网络的兴起才让人们看到了新的希望。到了80年代,一些专家系统被成功部署,并为公司节约了数以千万美元计的费用,比如第一个成功的商用专家系统R1在DEC成功运转,此后DEC陆续部署了40个专家系统。同时,日本宣布了第五代计算机计划,希望用10年时间研制出智能计算机。作为回应,美国也组建了一家公司来尝试应对这项挑战。我注意到,在这个时候,我们非常注重保证国家的竞争力。同时,在这个时候,神经网络也取得了新的进展。一个典型的事件是1989年,燕乐存在AT&T Bell实验室验证了一个反向传播算法在现实世界中的杰出应用,即“反向传播应用于手写邮编识别”系统。这个系统能够很精准地识别各种手写数字。非常有趣的是,这个系统的演示视频被保留了下来,所以我们今天仍然可以清楚地回放当年的效果。不幸的是,由于展开这类算法所需要的计算能力和数据那时候并不具备,所以在实际应用中也逐渐败下阵来。这个方向狼狈到这样一种程度:现在的深度学习领袖以及他们的学生的论文常常被拒之门外,主要因为论文主题是神经网络。另外,为了让神经网络复兴并被大家接受,现在众所周知的杰弗里·欣顿和他的小组决定用“深度学习”来重新命名让人望而生畏的神经网络领域。相信很多人无法想象神经网络的地位曾经这么不被待见。从我的角度来看,深度学习之所以如此鼎盛,其实有一个非常有趣的来历。实际上,人工智能在之前曾经陷入了一段低潮,这种低潮并非没有意义,而是由于技术本身的实现程度无法支撑足够多的应用。如果一种技术无法在商业中深度渗透,并且需要较多的研究资源,同时也缺乏坚实的理论基础使人们看到高额投资必然会产生效果,那么它遇冷的可能性就非常高。 人工智能曾被低估了十多年之久,直到互联网和云计算的兴起。如果我们从当时的历史起点——2010年,也就是当时斯坦福大学教授吴恩达加入谷歌开发团队XLab的时间点,算起,那么这次的人工智能热潮也只有五六年的时间。互联网提供了大量数据,云计算则提供了远超过以往的计算能力,这也是深度学习重新兴起的关键。 总的来说,如果我们把人工智能的历史分成三起两落,那么可以发现这一次的情况和前两次是不一样的。我们有理由相信,人工智能将会继续发展,而不是再次跌入低谷,唯一的原因就在于现在的技术条件更加成熟和充分。从我的角度来看,我认为这一次人工智能技术兴起的原因并非在于科学家有多么有信心,而是因为这种技术已经变得非常普遍并且应用范围要远大于前两次,不管是在声音、图像还是数据分析等领域。 事实上,目前人工智能技术得到了广泛应用,我们可以在日常生活中看到它的影子。比如智能家居、智能手机、智能语音助手等等,这些都是人工智能得到应用的典型例子。而且,它还可以广泛地应用于声音和图像处理、数据分析等领域,这一点也是前两次没有达到的规模。 因此,我们现在看到的人工智能技术的兴起,不是因为科学家有了更多的信心,而是因为它现在已经得到了广泛的应用。随着技术的不断进步和发展,相信它在未来还会有更加广泛的应用场景和更好的表现。