第60期 HackCV 日报

还记得前面介绍过的RMNIST这个缩减MNIST数据集的实验吗?作者希望使用小数据集,也可以让模型的准确率很高,就如同人学习一样。这篇文章分享了使用模拟退火进行超参数调节和集成多个神经网络结果的实验,从中发现了一些有趣的现象,比如第一层卷积只用2个核的效果也不差,大的batch-size可以更快的完成训练等等。

卷积网络是现在非常火热的领域,应用非常的广泛。现在卷积网络又开始在图上开始探索,初步看也有一定的效果。如果在这方面有了突破的进展,那应用将会更加广泛,想想目前有多少的图关系网络。

卷积神经网络的介绍,这一篇很值得看一看,虽然是介绍性质的,但实践非常多,尤其是卷积那一部分,有多种卷积操作的结果图,看起来非常直观。感觉作者是在写书一样。