一、可解释性深度学习新方法

深度卷积模糊系统的快速学习算法及其在股票指数预测中的应用

论文:A Fast Training Algorithm for Deep Convolutional Fuzzy Systems with Application to Stock Index Prediction

今天,为大家带来一篇自诩神奇的深度学习的文章大解读,科研之路,厚积薄发,看完这篇文章,也许你就有了写文章的新思路。

用盖楼的方式构建深度模糊模型:从盲人摸象开始?

打开网易新闻 查看更多图片

二、历史回顾

1990年,LeCun提出深层卷积神经网络,支撑当下人工智能泡沫的主力模型,1991年,Raju等人提出多层模糊系统。二者几乎同时在学术界被提出。

在之后的十几年里,两者的命运不尽相同:一直有学者在进行研究,但是一直无法成为学术界的主流研究方向。Raju的原始论文在学术网站上至今只有451次引用,LeCun的原始论文在最初的十几年间也很少被引用,直到2006年Hinton的神经网络新算法发表,神经网络再次崛起,人们才开始对深层神经网络进行深入探讨,结果一发不可收拾,深度学习再次走向辉煌,大红大紫,逐渐形成了如今的人工智能泡沫。

三、方法介绍

用盖楼的方式构建深度模糊系统模型:从盲人摸象开始

其实,作者的思路很简单:将高维的输入空间想象成一头大象,采取盲人摸象的方式,每个模糊子系统相当于一个盲人。

首先,在高维空间中只选择少数几个输入变量;然后,将其输出(盲人对大象的感受)交给第二层的盲人(模糊子系统),这样第一层盲人的工作就完成了。第二层盲人的工作方式与第一层的盲人相同,将第一层盲人的部分输出变量作为输入,对其进行归纳总结,形成自己的输出(对大象的理解),然后交给第三层的盲人,这样第二层盲人的工作也就完成了;以此类推,想建多少层就建多少层,直到最后一层,给出最终的结论。

打开网易新闻 查看更多图片

系统的关键:每一层模糊子系统建好以后就不再改变,像盖楼一样,第一层盖好后就不再改变,然后在第一层上面盖第二层,建造方法与第一层一样;第二层盖好后不再改变,在其上面盖第三层,用同样的建造方法继续构建高楼大厦。

由于每个深度模糊子系统只选择少数的输入变量,因此可以采用WM算法进行快速设计,整个深度模糊系统便可以快速建成了。

四、与深度神经网络比较

众所周知,深度神经网络有两大缺陷:

1.计算量大

大量的参数需要循环迭代,模型不知道需要多久才能收敛,因此将模型封装到客户端尚且可以,但如果有新的数据需要学习,客户端的简单设备就无法做到了。

2.模型不可解释

知其然不知其所以然,用起来心里没谱。对于像无人驾驶这样人命关天的应用场景,出事不可怕,可怕的是我们不知道问题出现在哪里?无法保证下一次不犯同样的错误,因为模型不可解释,“黑匣子”让我们一无所知,谁也不知道问题究竟出在哪里。

深度模糊的系统,恰好克服了这两大缺陷:

1. 由于WM方法只需要学习一次数据,不需要循环迭代,因此计算量很小;而且深度模糊系统构建起来非常迅速,在客户端的移动设备上,例如手机,也可以进行新数据的不断学习。

2. 深度模糊系统由简单的模糊子系统串联而成,每个模糊子系统就是一些简单的IF-THEN规则,因此深度模糊系统就是这些简单规则的首尾相接,一环套一环,容易理解,因此模型的可解释性很强。同时,如果系统出错,可以很容易地查出是哪一条规则链出了问题,并予以修正即可。

五、恒生指数的预测应用

作者说:赚钱才是硬道理!然后,文章就结合股票市场将算法应用了一下。

然后,他就成功了!预测得还不错,就发了一篇文章!

如图所示,红线表示基于深度模糊模型的基金三年来的价值曲线,蓝线是恒生指数基金同一时期的价值曲线。嗅到金钱的铜臭味了吧,比指数基金回报高出一倍?

打开网易新闻 查看更多图片

作者说:这只是该模型和算法的初步尝试,因此他只用了四只股票数据作为辅助变量,以后将结合股票大数据,将模型的深度变得更深,实现真正的深度模糊,打出醉拳的最高境界,又一台印钞机就这样横空出世了!

更多算法解析,详见算法原文,关于文章,欢迎交流探讨~

说实话,文章末尾我也没看出这篇文章跟深度卷积网络有什么关系?打着深度学习的幌子学术炒作?我们不得而知,不过发文的思想值得我们借鉴。

最后,祝各位科研人博闻强识,厚积薄发,科研事业如日中天。更多校园学习知识,欢迎关注、留言~