【一步一步的积累】Auto-context and Its Application to High-level Vision Tasks
2015-08-25 13:40
399 查看
(CVPR 2008) Auto-context and Its Application to High-level Vision Tasks
不论是分割还是分类,context都是很有用的信息。尤其是深度学习流行以后,能自动去挖掘一些context的内部相关性,所以对于如何引入尽可能多的context,成为了一个研究方向。这篇文章虽然和深度学习无关,但是有很多宝贵的观点。
作者认为
Unlike many the energy
minimization algorithms where the modeling and computing stages are separated, auto-context uses the same procedures in the two. 这是和传统的方法做对比的,对于深度学习来说,现在也是揉在一块了。因此这点不再赘述。
每一个被分类的像素除了常规的小领域信息,还会有更大领域的label信息,并且这些label信息还在一次一次的迭代中越来越准确。所以不同于一般的“图像patch
+ 标注”的数据,该文使用的是“图像patch + label的possiblity map + 标注”作为数据
简单说说这篇文章的实现:
以target pixel为中心,把领域patch和一个假设label是uniform分布的概率图作为特征(图中为全灰色)进行训练(文中使用boosting的方法,其实用什么样的分类器并没有关系)
生成的新的label的概率图,这个概率图的准确性取决于纯appearance的分类能力,因此也不能太差。
进行迭代,再次将图像patch和新生成的概率图作为输入,然后进行训练。直到程序收敛为止
整个过程如下图:
![](http://img.blog.csdn.net/20150825132955916?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
我觉得这篇文章的想法虽然不难,但是具有很有意思的论点和很强的启发性:
label信息的使用。作者认为“label (in probabilities) contexts greatly improve the segmentation/labeling result.”。更甚于之前Wolf and Bileschi认为label context可能会achieve the same effect as using image appearance, in object detection. 我个人的看法是,label的概率图的迭代过程如同信息的提取过程,如果使用在深度学习中,可以辅助提取大context的信息关系,减少网络训练难度,如本文标题所述,这是一个auto的过程。
同时作者也给出了证明,说明了这样的迭代是保证了error的下降的。
综上,在实际的项目中,使用过在分类结果上继续分类的做法,但是由于当时不知道如何保证其收敛性就中断了,另外,当时单纯的依靠label possibility map而放弃了appearance的输入,导致最后结果偏移很严重。因此,鉴于这篇文章的启发,可以重新将这个想法执行,测试一下实践中是否能满足预期效果。
不论是分割还是分类,context都是很有用的信息。尤其是深度学习流行以后,能自动去挖掘一些context的内部相关性,所以对于如何引入尽可能多的context,成为了一个研究方向。这篇文章虽然和深度学习无关,但是有很多宝贵的观点。
作者认为
Unlike many the energy
minimization algorithms where the modeling and computing stages are separated, auto-context uses the same procedures in the two. 这是和传统的方法做对比的,对于深度学习来说,现在也是揉在一块了。因此这点不再赘述。
每一个被分类的像素除了常规的小领域信息,还会有更大领域的label信息,并且这些label信息还在一次一次的迭代中越来越准确。所以不同于一般的“图像patch
+ 标注”的数据,该文使用的是“图像patch + label的possiblity map + 标注”作为数据
简单说说这篇文章的实现:
以target pixel为中心,把领域patch和一个假设label是uniform分布的概率图作为特征(图中为全灰色)进行训练(文中使用boosting的方法,其实用什么样的分类器并没有关系)
生成的新的label的概率图,这个概率图的准确性取决于纯appearance的分类能力,因此也不能太差。
进行迭代,再次将图像patch和新生成的概率图作为输入,然后进行训练。直到程序收敛为止
整个过程如下图:
我觉得这篇文章的想法虽然不难,但是具有很有意思的论点和很强的启发性:
label信息的使用。作者认为“label (in probabilities) contexts greatly improve the segmentation/labeling result.”。更甚于之前Wolf and Bileschi认为label context可能会achieve the same effect as using image appearance, in object detection. 我个人的看法是,label的概率图的迭代过程如同信息的提取过程,如果使用在深度学习中,可以辅助提取大context的信息关系,减少网络训练难度,如本文标题所述,这是一个auto的过程。
同时作者也给出了证明,说明了这样的迭代是保证了error的下降的。
综上,在实际的项目中,使用过在分类结果上继续分类的做法,但是由于当时不知道如何保证其收敛性就中断了,另外,当时单纯的依靠label possibility map而放弃了appearance的输入,导致最后结果偏移很严重。因此,鉴于这篇文章的启发,可以重新将这个想法执行,测试一下实践中是否能满足预期效果。
相关文章推荐
- Android得到屏幕分辨率
- Android中实现全屏、无标题栏的两种办法
- 微信企业号+竞品数据上报
- Swift开发教程--如何在别的类中调用AppDelegate中的方法
- swift_UITableView详解
- Android Design Support Library概览
- iOS多线程编程之Grand Central Dispatch(GCD)介绍和使用
- 使用Nagios搭建监控服务器
- iOS中Foundation的常见知识点
- Android插件化开发之OpenAtlas插件启动方式与插件启动广播
- android-studio 快捷键
- IOS 多线程(4) --线程通讯
- Android应用程序资源(一)
- 如果让我重新设计一款Android App
- 使用Ant打包Android应用详解——Ant使用解析
- iOS中属性与成员变量的区别
- 自定义一个可以嵌套在ScrollView中使用的ListView和GridView
- Swift 枚举
- 自学 iOS 开发的一些经验
- Android Api Demos登顶之路(四十七)Loader-->Throttle