之前看一个师兄写的文章里面,提到推荐做AI的人看下朱松纯教授写的那篇《人工智能的现状、任务、构架和统一》。我虽然不做纯AI,但我一直在想找一个人脑与AI的结合点,非常希望能建立起自己的一个认知框架。隔了大半年了,终于有时间找来读一读。下面大概介绍一下朱教授的观点和我自己的思考。
朱教授把人工智能分为六大板块:
- 计算机视觉: 包括模式识别,图像处理
- 自然语言理解与交流: 包括语音识别,对话
- 认知与推理: 包括物理和社会常识
- 机器人学: 机械,控制,设计,运动规划和任务规划等
- 博弈与伦理: multi-agent 的交互,对抗与合作等
- 机器学习: 各种统计的建模,分析工具
在我读PhD的初期,其实是有机会做真的图像处理,做deep learning那一套东西的,可我大致研究了一下,我觉得太火了,不管是本来就是这个领域的,还是其他领域的,都在朝这个方向转,都在发相关的paper。这让我当时就想起了一个词,大跃进。虽然我理解得也不深刻,但我觉得其实还远不到人们想的那样,DL可以实现真正的人工智能。我当时想,别人都在做的,那我不做,既然有这样一个机会让我搞一下真的人脑,那我就来看看,到底真的人脑是什么样子的?然后一直搞到现在,我发现这个坑是真的多,神经科学这个领域从我开始踏入,到现在,一直没有什么质的进展。但是AI的大潮,已经从CV,转到NLP了。上个月参加谷歌组织的机器学习冬令营,我发现做视觉的相对来说少一些,但是做NLP的,一大把。这是一个很有趣的现象,因为CV那块,像朱教授说的那样,刷榜刷得差不多了,在图像识别本身来说,已经没有什么可以进步的了,除非和其他的领域结合。于是人们又自然而然转到NLP上面去。下一个浪潮是哪里呢?我猜是机器人学,因为前两者都要结合啊,需要一个载体或者说agent来帮助表明这东西有多牛逼啊。而且机器人本身,也是需要加上前两者,才能实现智能这一特性的。可是这还是缺思考,缺认知这一块,所以认知和推理,我觉得是下下个浪潮,也是我现在想研究的方向。
这其实有点像一个统一的过程,分而治之,再合成一个完整的学科。从朱教授的介绍来讲,人工智能发展的60年有两个阶段:
- 前30年以数理逻辑的表达和推理为主: 这一期的领军人物懂很多认知科学的东西,有很强的全局观念,但是没有落地,所以不了了之。
- 后30年以概率统计的建模、学习和计算为主: 几大学科独立发展,基于概率建模和随机计算,AI再度繁荣
后30年的代表人物中,朱教授有提到Judea Pearl这个人,11年的图灵奖获得者。巧的是我当时也追过这个人的paper,因为他的因果模型,我觉得是很有希望用在大脑建模过程当中的,找来他的那本著作看,无奈数学推导对我太难,而后放弃,但这个理论,还依然在我的to do list里面。
那这几大学科怎么统一到AI上面呢?框架是什么?
教授给出的方向是:小数据,大任务范式
他认为智能系统的根源可以追溯到两个基本前提条件:
- 物理环境客观的现实与因果链条:这个我理解的是input, 也就是所见所观所得,这些是外部条件来的
- 智能物种与生俱来的任务与价值链条:这个我理解的是 inner sense。也就是所思所做,即文章提到的价值观和决策函数。
这有点像一个控制里面的系统,有自己内部的构造和决策,加上外界的input,然后推导出output. 而其实我们想达到的AI,也就是一个智能系统罢了。
但是这个系统不是一层不变的,就像我们的人脑,每时每刻的状态其实都是不一样的。那为什么会变呢,也就是为什么会有学习这个过程呢?
- 外来的数据:外部世界通过各种感知信号,传递到人脑,塑造模型。这些数据来源于观察和实践。观察的数据用于学习各种统计模型,即相关性。实践的数据用于学习因果模型,即将行为和结果联系在一起。
- 内在的任务:即由内在的价值函数驱动行为,以达到某种目的。
这个学习的缘由其实和上面的前提条件很像,都是一个是input的东西,一个是inner的东西。不同的在于,前面那个是初始状态,是静止的,后面那个是学习的过程,是动态的,且一直都在变的。
那怎么根据这些前提条件和驱动因子实现小数据,大任务范式这个统一框架呢?朱教授提到了暗物质,这个暗物质不是物理学中的那个暗物质。我理解的是,它其实代表了一种 common sense 的建立和因果的推理。你看到的,不仅仅是你看到的,还有那些物体背后的联系和因果关系。而这些,就是那些在暗处的东西,那些能促使小数据完成大任务的因子。那这需要什么学科的知识呢?答案是认知,mind。这就涉及到心理学和神经科学相关的东西了。
在介绍到认知的时候,朱教授引入了博弈伦理。其中提到了两大类的学习方法,我觉得是很有必要单独拿出来看看的,因为这两个学习的方法,其实也是我们真的学习的过程:
- 归纳学习(Inductive learning): 通过观察大量数据样本来学习,这些样本就是对某个时期、某个地域、某个人群达成的准平衡态的观察。归纳学习的结果就是一个时空因果的概率模型。
- 演绎学习(Deductive learning): 这个东西文献中很少,也就是从价值函数(还有物理因果)出发,直接推导出这些准平衡态。
这就像我们人类早期的学习,都是归纳学习来的,通过观察别人,学习别人,来逐步形成自己的人生观价值观世界观。而后成长到一定年纪的时候,就是演绎学习了,没有见过的东西,通过分析和推理,依然可以得出正确的结论。
只可惜我们很多人,一辈子都没有到演绎学习的阶段,从来只是从别人那里听来读来,并没有形成自己的一套方法论。
我还想提的一点是,归纳学习有点像现在的强化学习,用很少的样本,就是不断去尝试啊,然后得出结果,有一套因果推导在里面。这也是为什么我很关注强化学习的另一个原因。
之后朱教授讲到学习的极限,停机问题,说实话我对这个方向不是很了解,就不过多分析了。
最后文章的总结题目是:智能科学-牛顿与达尔文理论体系的统一。提到物理学的责任是寻找支配自然各种现象的统一的力。而智能科学的研究对象是什么呢?是把物理学排除在外的生物意志给拿进来,研究一个物理与生物混合的复杂系统。这里朱教授提到了力的概念,提到了人与人之间,人与物,物与物之间,那些联系其实可用看成一种力,因为这些力是可以真实用数学表达式表达出来的,而且在物理学上是已经很统一很规范了的。那我们要做的其实就是把生物这块的东西,跟物理结合起来。
在我以前最开始思考AI与人脑的结合的时候,并没有从物理这个方向去想,一是完全没有意识,二是觉得没有什么联系。对物理的理解并不深,所以我对这个观点的看法不加评论。但是有没有一种大统一,是可以独立于物理啊这些理论,在智能的内部(包括人工智能和真人智能),有一个统一的理论,来解释所有的因果和相关呢?我觉得是有的,这也是我一直想找到的一个统一的理论来链接AI和human brain.
整篇文章让我特别感动的是介绍到David Mumford的时候,说他念念不忘人工智能,从头开始学统计概率,直奔关键体系,而不是拿着锤子找钉子。这恰恰是我目前想追求的,但现实里我却智能拿着锤子找钉子,如果条件允许,我想我还是会钻到统计概率那边,再去学习的,因为我目前的知识体系,还缺少这一块,而这一块又是我认为很重要的。当然,再学个物理也是极好的。
All in all, 现在的Artificial intelligence 只能算是 engineering,而不是一门真正的science,等真正有人站出来统一这个学科了,或许才能真正称之为 Science of Intelligence。 我希望自己能在有生之年,能够成为这个science of intelligence 建立的推动者。