基于Aforge的手势识别之一~~~简单的手写识别
2011-05-02 18:17
281 查看
上一篇文章介绍了如何用Aforge去捕捉运动物体,现在就介绍一个更深入的操作----手势识别。
我实现手势识别的原理很简单:捕捉运动物体+手写识别,把运动的物体的轨迹记录下来,然后通过手写识别引擎去搜索数据中最匹配的数据,从而知道“写”的是什么。目前常见的开源手写识别引擎有zinnia,wagomu 这些,不过小弟我比较业余,只把网上的比较常见的手写识别代码改进一下,只能识别字母和数字,真想通过摄像头隔空“手写”的朋友就要多花时间玩玩上面提到的几个开源手写类库了。
本文介绍的手写识别:先在一个固定大小的画板上,用鼠标画下某图形,输入该图形对应的字母,程序把画板上的字母特征点都保存下来特征数据库(相当于学习记忆),然后再在画板上画出类似该字母的图形,程序就通过新画的特征点搜索特征数据库从而找出最类似的字母。
接下来贴出核心代码,详细的代码请到这里下载:http://download.csdn.net/source/2312865
GetBMPContext()是把画板中的图形的特征分析出来,Learn()是把特征与特定的字母/数字对应起来保存到数据库,Recognise()是把当前画板的图形特征从数据库中搜索,从而找出对应的字母/数字。
我实现手势识别的原理很简单:捕捉运动物体+手写识别,把运动的物体的轨迹记录下来,然后通过手写识别引擎去搜索数据中最匹配的数据,从而知道“写”的是什么。目前常见的开源手写识别引擎有zinnia,wagomu 这些,不过小弟我比较业余,只把网上的比较常见的手写识别代码改进一下,只能识别字母和数字,真想通过摄像头隔空“手写”的朋友就要多花时间玩玩上面提到的几个开源手写类库了。
本文介绍的手写识别:先在一个固定大小的画板上,用鼠标画下某图形,输入该图形对应的字母,程序把画板上的字母特征点都保存下来特征数据库(相当于学习记忆),然后再在画板上画出类似该字母的图形,程序就通过新画的特征点搜索特征数据库从而找出最类似的字母。
接下来贴出核心代码,详细的代码请到这里下载:http://download.csdn.net/source/2312865
GetBMPContext()是把画板中的图形的特征分析出来,Learn()是把特征与特定的字母/数字对应起来保存到数据库,Recognise()是把当前画板的图形特征从数据库中搜索,从而找出对应的字母/数字。
相关文章推荐
- 基于Aforge的手势识别之一~~~简单的手写识别
- 基于Aforge的手势识别之一~~~简单的手写识别
- 基于Aforge的手势识别之一~~~简单的手写识别
- 手势动态识别(基于opencv的简单实现)
- 基于单 camera的手势识别
- 【Android游戏开发十六】Android Gesture之【触摸屏手势识别】操作!利用触摸屏手势实现一个简单切换图片的功能!
- Kinect+OpenNI学习笔记之12(简单手势所表示的数字的识别)
- 基于视觉手势识别系统的方法总结
- 基于opencv的手势识别
- cocos2dx游戏开发之利用多点触摸(实现缩放功能或者简单的手势识别)
- 基于matlab的简单人脸识别实例
- cocos2dx游戏开发之利用多点触摸(实现缩放功能或者简单的手势识别)
- 基于python的验证码生成与识别1—生成简单的验证码
- 基于单目视觉的手势识别(本科毕业作品)
- 基于HMM轨迹识别matlab简单说明
- 使用微软Kinect进行手势识别操作的一个简单范例(2)(WPF-C#)
- 基于一次手势训练的kinect 3D 动态手势识别(提纲)
- 手势识别数据库ChaLearn Gesture Challenge_1:CGD数据库简单介绍
- Java 基于手势的几何图形识别
- 基于手势识别的PPT控制