自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

菜鸟ZhangAnam的博客

一切靠自学。学习CV、ML中

  • 博客(25)
  • 收藏
  • 关注

转载 Mysql 0 不能做主键的修改方法

SET sql_mode='NO_AUTO_VALUE_ON_ZERO';

2015-01-19 21:43:37 882

转载 非常有用的位运算技巧

一提起位运算,人们往往想到它的高效性,无论是嵌入式编程还是优化系统的核心代码,适当的运用位运算总是一种迷人的手段,或者当您求职的时候,在代码中写入适当的位运算也会让您的程序增加一丝亮点,最初当我读《编程之美》求“1的数目”时,我才开始觉得位运算是如此之美,后来读到 《Hacker's Delight》,感慨到Henry S.Warren把位运算运用的如此神出鬼没,很多程序都十分精妙,我觉得在一个普

2014-07-24 14:02:56 694

原创 OpenCV源码阅读——1.2 Mat的内存管理

1.2 Mat的内存管理图像数据量大,不妥善管理好内存会产生很大的问题。OpenCV1.X中多采用C的结构,需要用户自己管理内存,在图像不再使用时调用CvRelease。OpenCV2.X中采用C++面向对象的方式,内存可以由自动申请和释放。 1.2.1 图像头与图像内容OpenCV中,图像的头与图像内容是分开的。如下面这段代码:Mat A = Mat::zeros(800,6

2014-07-12 16:33:51 3181

原创 OpenCV源码阅读——1.1 Mat的结构

我是地理信息系统专业的学生,机缘巧合走上了机器视觉的道路

2014-07-05 21:33:19 2853 2

转载 如何选择机器学习分类器?

本文由 伯乐在线 - yixingqingkong 翻译自 Edwin Chen。欢迎加入技术翻译小组。转载请参见文章末尾处的要求。你知道如何为你的分类问题选择合适的机器学习算法吗?当然,如果你真正关心准确率,那么最佳方法是测试各种不同的算法(同时还要确保对每个算法测试不同参数),然后通过交叉验证选择最好的一个。但是,如果你只是为你的问题寻找一个“足够好”的算法,或者一个起点,这里有一

2014-05-29 14:37:48 959

转载 HMM学习最佳范例六:维特比算法5

六、维特比算法(Viterbi Algorithm)维特比算法程序示例  仍然需要说明的是,本节不是这个系列的翻译,而是作为维特比算法这一章的补充,将UMDHMM这个C语言版本的HMM工具包中的维特比算法程序展示给大家,并运行包中所附带的例子。关于UMDHMM这个工具包的介绍,大家可以参考前向算法4中的介绍。维特比算法程序示例如下(在viterbi.c中):

2014-05-29 13:34:14 909

转载 HMM学习最佳范例八:总结

八、总结(Summary)  通常,模式并不是单独的出现,而是作为时间序列中的一个部分——这个过程有时候可以被辅助用来对它们进行识别。在基于时间的进程中,通常都会使用一些假设——一个最常用的假设是进程的状态只依赖于前面N个状态——这样我们就有了一个N阶马尔科夫模型。最简单的例子是N = 1。  存在很多例子,在这些例子中进程的状态(模式)是不能够被直接观察的,但是可以非直接地,或者概率

2014-05-29 13:30:22 854

转载 HMM学习最佳范例七:前向-后向算法5

七、前向-后向算法(Forward-backward algorithm)  上一节我们定义了两个变量及相应的期望值,本节我们利用这两个变量及其期望值来重新估计隐马尔科夫模型(HMM)的参数pi,A及B:  如果我们定义当前的HMM模型为,那么可以利用该模型计算上面三个式子的右端;我们再定义重新估计的HMM模型为,那么上面三个式子的左端就是重估的HMM模型参数。Baum及他

2014-05-29 13:29:18 919

转载 HMM学习最佳范例七:前向-后向算法4

七、前向-后向算法(Forward-backward algorithm)  隐马尔科夫模型(HMM)的三个基本问题中,第三个HMM参数学习的问题是最难的,因为对于给定的观察序列O,没有任何一种方法可以精确地找到一组最优的隐马尔科夫模型参数(A、B、pi)使P(O|)最大。因而,学者们退而求其次,不能使P(O|)全局最优,就寻求使其局部最优(最大化)的解决方法,而前向-后向算法(又称之为B

2014-05-29 13:27:50 881

转载 HMM学习最佳范例七:前向-后向算法3

七、前向-后向算法(Forward-backward algorithm)  前向-后向算法是Baum于1972年提出来的,又称之为Baum-Welch算法,虽然它是EM(Expectation-Maximization)算法的一个特例,但EM算法却是于1977年提出的。那么为什么说前向-后向算法是EM算法的一个特例呢?这里有两点需要说明一下。  第一,1977年A. P. Demps

2014-05-29 13:27:09 1048

转载 HMM学习最佳范例七:前向-后向算法2

七、前向-后向算法(Forward-backward algorithm)  要理解前向-后向算法,首先需要了解两个算法:后向算法和EM算法。后向算法是必须的,因为前向-后向算法就是利用了前向算法与后向算法中的变量因子,其得名也因于此;而EM算法不是必须的,不过由于前向-后向算法是EM算法的一个特例,因此了解一下EM算法也是有好处的,说实话,对于EM算法,我也是云里雾里的。好了,废话少说,

2014-05-29 13:26:32 1149

转载 HMM学习最佳范例七:前向-后向算法1

七、前向-后向算法(Forward-backward algorithm)根据观察序列生成隐马尔科夫模型(Generating a HMM from a sequence of obersvations)  与HMM模型相关的“有用”的问题是评估(前向算法)和解码(维特比算法)——它们一个被用来测量一个模型的相对适用性,另一个被用来推测模型隐藏的部分在做什么(“到底

2014-05-29 13:25:24 1140

转载 HMM学习最佳范例六:维特比算法4

六、维特比算法(Viterbi Algorithm)维特比算法定义(Viterbi algorithm definition)1、维特比算法的形式化定义  维特比算法可以形式化的概括为:  对于每一个i,i = 1,… ,n,令:       ——这一步是通过隐藏状态的初始概率和相应的观察概率之积计算了t=1时刻的局部概率。  对于t=2,…,T和i

2014-05-29 13:09:32 881

转载 HMM学习最佳范例六:维特比算法3

六、维特比算法(Viterbi Algorithm)寻找最可能的隐藏状态序列(Finding most probable sequence of hidden states)2d.反向指针,‘s  考虑下面这个网格     在每一个中间及终止状态我们都知道了局部概率,(i,t)。然而我们的目标是在给定一个观察序列的情况下寻找网格中最可能的隐藏状态序列——

2014-05-29 13:08:38 827

转载 HMM学习最佳范例六:维特比算法2

六、维特比算法(Viterbi Algorithm)寻找最可能的隐藏状态序列(Finding most probable sequence of hidden states)2b.计算t=1时刻的局部概率‘s  我们计算的局部概率是作为最可能到达我们当前位置的路径的概率(已知的特殊知识如观察概率及前一个状态的概率)。当t=1的时候,到达某状态的最可能路径明显是不

2014-05-29 13:07:21 878

转载 HMM学习最佳范例六:维特比算法1

六、维特比算法(Viterbi Algorithm)寻找最可能的隐藏状态序列(Finding most probable sequence of hidden states)  对于一个特殊的隐马尔科夫模型(HMM)及一个相应的观察序列,我们常常希望能找到生成此序列最可能的隐藏状态序列。1.穷举搜索  我们使用下面这张网格图片来形象化的说明隐藏状态和观察状态

2014-05-29 13:06:41 887

转载 HMM学习最佳范例五:前向算法5

在HMM这个翻译系列的原文中,作者举了一个前向算法的交互例子,这也是这个系列中比较出彩的地方,但是,在具体运行这个例子的时候,却发现其似乎有点问题。  先说一下如何使用这个交互例子,运行时需要浏览器支持java,我用的是firefox。首先在Set按钮前面的对话框里上观察序列,如“Dry,Damp, Soggy” 或“Dry Damp Soggy”,观察符号间用逗号或空格隔开;然后再点击S

2014-05-29 13:05:49 740

转载 HMM学习最佳范例五:前向算法4

首先需要说明的是,本节不是这个系列的翻译,而是作为前向算法这一章的补充,希望能从实践的角度来说明前向算法。除了用程序来解读hmm的前向算法外,还希望将原文所举例子的问题拿出来和大家探讨。  文中所举的程序来自于UMDHMM这个C语言版本的HMM工具包,具体见《几种不同程序语言的HMM版本》。先说明一下UMDHMM这个包的基本情况,在linux环境下,进入umdhmm-v1.02目录,“make

2014-05-29 13:05:06 813

转载 HMM学习最佳范例五:前向算法3

五、前向算法(Forward Algorithm)前向算法定义(Forward algorithm definition)  我们使用前向算法计算T长观察序列的概率:       其中y的每一个是观察集合之一。局部(中间)概率(‘s)是递归计算的,首先通过计算t=1时刻所有状态的局部概率:       然后在每个时间点,t=2,… ,T时,对于每个状态的局部

2014-05-29 13:04:08 787

转载 HMM学习最佳范例五:前向算法2

五、前向算法(Forward Algorithm)计算观察序列的概率(Finding the probability of an observed sequence)2b.计算t=1时的局部概率‘s  我们按如下公式计算局部概率:  t ( j )= Pr( 观察状态 | 隐藏状态j ) x Pr(t时刻所有指向j状态的路径)  特别当t=1时,没有任何指向当前

2014-05-29 13:03:08 827

转载 HMM学习最佳范例五:前向算法1

五、前向算法(Forward Algorithm)计算观察序列的概率(Finding the probability of an observed sequence)1.穷举搜索( Exhaustive search for solution)  给定隐马尔科夫模型,也就是在模型参数(pi, A, B)已知的情况下,我们想找到观察序列的概率。还是考虑天气这个例子,我们有

2014-05-29 13:01:29 813

转载 HMM学习最佳范例四:隐马尔科夫模型

四、隐马尔科夫模型(Hidden Markov Models)1、定义(Definition of a hidden Markov model)  一个隐马尔科夫模型是一个三元组(pi, A, B)。  :初始化概率向量;  :状态转移矩阵;  :混淆矩阵;  在状态转移矩阵及混淆矩阵中的每一个概率都是时间无关的——也就是说,当系统演化时这些矩阵并不随时间改变。实际上,

2014-05-29 12:59:29 1219

转载 HMM学习最佳范例三:隐藏模式

三、隐藏模式(Hidden Patterns)1、马尔科夫过程的局限性  在某些情况下,我们希望找到的模式用马尔科夫过程描述还显得不充分。回顾一下天气那个例子,一个隐士也许不能够直接获取到天气的观察情况,但是他有一些水藻。民间传说告诉我们水藻的状态与天气状态有一定的概率关系——天气和水藻的状态是紧密相关的。在这个例子中我们有两组状态,观察的状态(水藻的状态)和隐藏的状态(天气的状态)。

2014-05-29 12:58:24 950

转载 HMM学习最佳范例二:生成模式

发表于 2009年06月9号 由 52nlp二、生成模式(Generating Patterns)1、确定性模式(Deterministic Patterns)  考虑一套交通信号灯,灯的颜色变化序列依次是红色-红色/黄色-绿色-黄色-红色。这个序列可以作为一个状态机器,交通信号灯的不同状态都紧跟着上一个状态。      注意每一个状态都是唯一的依赖于前一个状态,所

2014-05-29 12:57:41 918

转载 HMM学习最佳范例一:介绍

隐马尔科夫模型(HMM)依然是读者访问“我爱自然语言处理”的一个热门相关关键词,我曾在《HMM学习最佳范例与崔晓源的博客》中介绍过国外的一个不错的HMM学习教程,并且国内崔晓源师兄有一个相应的翻译版本,不过这个版本比较简化和粗略,有些地方只是概况性的翻译了一下,省去了一些内容,所以从今天开始计划在52nlp上系统的重新翻译这个学习教程,希望对大家有点用。一、介绍(Introduction)

2014-05-29 11:07:19 797

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除