自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Jack_H的专栏

前无古人,后无来者。念天地之悠悠,独怆然而涕下!

  • 博客(37)
  • 问答 (1)
  • 收藏
  • 关注

原创 欢迎使用CSDN-markdown编辑器

又是一个年头,走过2016,开始了17新的征程。

2017-02-07 21:11:52 235

原创 欢迎使用CSDN-markdown编辑器

欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl

2017-01-02 20:16:47 279

转载 ALS 【转载】

转自:https://github.com/ceys/jdml/wiki/ALS 编写人:ceys/youyis 一、算法描述1.原理问题描述ALS的矩阵分解算法常应用于推荐系统中,将用户(user)对商品(item)的评分矩阵,分解为用户对商品隐含特征的偏好矩阵,和商品在隐含特征上的映射矩阵。与传统的矩阵分解SVD方法来分解矩阵R(R∈Rm×nR\in \mathbb{R}^{m\time

2016-11-16 17:37:04 513

原创 天注定--从现在开始的展望

Part One 主人公大海因为不满村中官商勾结在状告无门的时候,又因为当面质问煤矿老板被打,在医院收到封口费,再次回到村里的大海受到了集体的嘲笑,一怒之下枪杀村会计夫妇、狐假虎威的村委会传达室职员、村长以及煤老板等。Part Two 在外闯江湖的老三枪杀了拦路抢劫的三个劫匪,常年在湖南、云南等地闯荡,对生活感到索然无味,选择过在外激情的生活,在极强的犯罪智商掩盖下,抢劫取款后的人们,并成

2016-05-30 20:09:55 406

原创 参数在编译器决定

class A{ public: virtual void func(int val = 1) { std::cout " << val << std::endl;} virtual void test() { func(); }

2015-09-05 10:57:50 383

原创 浅层网路regression杂记

tools :ConvNetJS regressionmotivation  :  查看相应规模网络的学习能力,不同复杂度的图片,所作出预测的能力。网络配置:hidden Layer共7层,外加,输入及输出层。                    隐藏层 每层20个neurons,并每层采用regularization.。结果:该幅图片中所含的信息量太大,由于

2015-02-01 15:25:01 541

原创 softmax杂记

首先,寄出经典--stanford的SoftMax回归-Ufldl。之后,瞬间感觉没自己什么事了!本来是自己上了NG的课程之后,前前后后的看了许久的东西,但是现在感觉到,很多东西,也只是知其然,不知所以然。后面是要花时间,细细的琢磨这些东西,可能要从最最基础的东西开始了。一些重要的东西,还是复制一下!softmax回归  VS   多个二元分类器如果你在开发一个音乐分类的应

2015-01-27 20:02:51 483

原创 稀疏矩阵的存储格式

题注:看到网上有这方面的东西,但是不多,映像当中,中文的版本只有一个,讲解不够清楚,而且还有错误的地方,在经过查阅资料之后将存储格式中最为重要也是中文版本中的所有重新进行说明,以期望对大家有所帮助吧!分割区中的部分为本人改造版本,其余引用自他人:稀疏矩阵的存储格式(Sparse Matrix Storage Formats)Sason        对于稀疏矩阵,仅仅存储非零元素可是矩阵操

2015-01-19 21:55:03 1558

原创 pyinstaller 杂记

查阅官方文档,请点此    github地址,请点此    下载,请点此    先给出快捷版本:                准备:已经写好的脚本 example.py  ,安装好工具pyinstaller.                 模式说明:类1:将程序打包成一个文件。                                     类2:将程序打包成文

2015-01-15 16:15:08 754

原创 numpy,scipy,matplotlib,pylab,pyplot 杂记

pyplot and pylab  is a part of module matplotlib.  numpy is one of dependencies of matplotlib.scipy depend on numpy.but matplotlib have no relation with scipy.we always use plt as the alia

2014-12-21 11:00:02 931

原创 python中numpy杂记

今天看到了个arange(),在百度中是没有搜到答案,直接进google,当然有的是答案了@!以后对这些貌似很像且有用的东西进行记录!range()返回的是list;xrange 返回的是python中的xrange对象(一个生成器);arange返回的是一个array对象,是numpy中的函数。range(10)返回大小10,xrange返回xrange(10),占用内存很小,ara

2014-12-20 19:51:52 649

原创 局部敏感哈希杂记

在电脑前面时间太长了,加上阳光晒了很久的缘故,脑子有些犯困了,故此,写写上午看的东西,已做放松吧!局部敏感哈希LSH:提出:当我遇到查找一类的问题时,第一个冒出来的想法,必定是hash,其他乱七八糟的算法,那是最后的选择了。原因依然很简单就是O(1).在微博或者查找文本的时候,在当今海量的数据面前,如果采用传统的方法找到与目标文档相似,或者目标内容相似的内容,那我们还是洗洗睡吧!费时费

2014-12-17 15:24:19 743

原创 岭回归and逐步线性回归杂记

1.预备知识:对于有些矩阵,矩阵中某个元素的一个很小的变动,会引起最后计算结果误差很大,这种矩阵称为“病态矩阵”。有些时候不正确的计算方法也会使一个正常的矩阵在运算中表现出病态。对于高斯消去法来说,如果主元(即对角线上的元素)上的元素很小,在计算时就会表现出病态的特征。回归分析中常用的最小二乘法是一种无偏估计。         当X列满秩时,有:    X+表示X的广义逆(或叫伪逆

2014-11-28 16:08:29 3092

原创 贝叶斯杂记

贝叶斯,最早接触是在

2014-11-10 09:30:39 569

原创 决策树杂记

决策树这部分的知识,记得那时近两个月前回家时在火车上闲着没事看的,

2014-11-07 20:51:37 602

原创 Word2vec学习杂记

在学习CNN的过程中无意中在微博当中

2014-10-29 21:16:25 614

原创 CNN杂记

BP算法的详细介绍:http://deeplearning.stanford.edu/wiki/index.php/%E5%8F%8D%E5%90%91%E4%BC%A0%E5%AF%BC%E7%AE%97%E6%B3%95zheying

2014-10-26 17:32:05 475

原创 python模拟登陆杂记

从一个菜,开始练习要弄懂这些还真是费了很大的力气啊!       网上这种登陆的代码真的是一大堆了,所以代码就免了,也没什么意思!      就说说那些高手不会说的东西,就像课本里面只讲结论,而不讲这些贤人怎么思考的过程。我认为结论固然重要,但是思考的过程也很重要!      首先,有http协议和cookie的一些知识也很必要,没有也没有很大关系!      要模拟登陆,就需要懂

2014-10-17 22:07:56 635

原创 HMM杂记

在接触了GMM之后, 选择将HMM进行了了解,网上的基础资料还是挺多的,

2014-09-27 20:29:18 574

原创 deep learning 初记

为了理解为什么大数据需要深度模型,先举一个例子。语音识别已经是一个大数据的机器学习问题,在其声学建模部分,通常面临的是十亿到千亿级别的训练样本。在Google的一个语音识别实验中,发现训练后的DNN对训练样本和测试样本的预测误差基本相当。这是非常违反常识的,因为通常模型在训练样本上的预测误差会显著小于测试样本。因此,只有一个解释,就是由于大数据里含有丰富的信息维度,即便是DNN这样的高容量复杂模型

2014-09-19 10:53:39 549

原创 因子分析杂记

第一,它假定所有的因子(旋转后) 都会影响测度项。在实际研究中,我们往往会假定一个因子之间没有因果关系,所以可能不会影响另外一个因子的测度项。第二,探索性因子分析假定测度项残差之间是相互独立的。实际上,测度项的残差之间可以因为单一方法偏差、子因子等因素而相关。第三,探索性因子分析强制所有的因子为独立的。这虽然是求解因子个数时不得不采用的机宜之计,却与大部分的研究模型不符。最明显的是,自变量与应变量

2014-09-14 17:25:30 827

原创 EM杂记

The EM-algorithm is also reminiscent of the k-mean clustering algorithm ,except that instead of the 'hard' cluste

2014-09-13 16:41:52 379

转载 图˙谱˙马尔可夫过程˙聚类结构----by林达华

这又是林达华的一篇好文,将四个概念在某个方面解释的很清楚,特别是特征值和特征向量的意义,让人豁然开朗。        原文已经找不到了,好像是因为林达华原来的live博客已经失效,能找到的只有网上转载的文章(本来还想把他的博客看个遍)。林本人的数学功底之强,有时候会让我们这些搞CV、ML的人趁还在学校,重头把一些数学学一遍。不过想想学校所开设的课程实在是屎(老师和学生们都是混),也就想想罢了。

2014-09-11 09:55:36 652

原创 canopy杂记

看过很多算法的描述过程,没有几个令人满意的,太过粗糙,

2014-09-06 15:09:33 728

原创 meanshift杂记

1.根据算法的公式当中的meanshift向量的+

2014-08-30 10:37:29 659

原创 SVM杂记

1.这样我们可以得出结论,我们更应该关心靠近中间分割线的点,让他们尽可能地远离中间线,而不是在所有点上达到最优。因为那样的话,要使得一部分点靠近中间线来换取另外一部分点更加远离中间线。我想这就是支持向量机的思路和logistic回归的不同点,一个考虑局部(不关心已经确定远离的点),一个考虑全局(已经远离的点可能通过调整中间线使其能够更加远离)

2014-08-29 15:38:45 645

原创 Clustering by fast search and find of density peaks (备注)

算法核心:利用样本点之间的距离

2014-08-19 20:40:11 1285

原创 知识点记录

高斯函数的可分离性是指使用二维高斯矩阵

2014-08-03 09:15:00 453

转载 图像处理与计算机视觉基础,经典以及最近发展

图像处理与计算机视觉基础,经典以及最近发展                                                                                                                             By xdyang(杨晓冬[email protected])一、 绪论

2014-08-01 20:20:20 944

原创 K-mean and fuzzy C-mean clustering

k-mean algorithm is simple ,we can understand easily ,

2014-07-30 09:22:24 589

原创 街景原理要点

http://code.google.com/apis/maps/documentation/javascript/services.html#StreetView

2014-07-08 18:57:32 1246

原创 sift 不易理解的地方

首先  sift  称作尺度不变,最关键的yijiu

2014-07-05 20:31:29 647

原创 海森矩阵的应用:多元函数极值的判定

Hessian Matrix 主要是对 变量的二阶导数所组成,

2014-06-25 16:03:04 17910

原创 LBP 某些点说明

LBF迷惑点说明:        它本身就具有灰度不变性,

2014-06-18 22:33:09 714

原创 KPCA的matlab实现

在网上看到了的实现,其中的好些注释不能令自己满意,故此,copy过来,自己修改注释!其中有些地方也不准确!故此自己修改的结果!function [train_kpca,test_kpca] = kpcaFordata(train,test,threshold,rbf_var)%% Data kpca processingif nargin rbf_var=10000;%?end

2014-06-16 17:01:17 15587 3

原创 PCA 注释与延伸

PCA  过程有两种理解:    1.所作主成分提取。由于M=USV'.中的S中,取奇异值较大的前K个得到S1,并对U,V进行削减得U1,V1。然后有M1=U1*S1*V1'.由于M所构成的空间的维数和M的秩是相同的,又等同于S1的秩及奇异值的个数。而S1的秩小于S的,故此M1的维度也是小于M的。进而达到了降维。应用:数据的去噪!  这里面有较强的假设:(1)特征根的大小决定了我们感兴趣信

2014-06-13 20:11:28 764

原创 数值分析相关

人脸识别上的协方差矩阵表示的意义就是不同纬度之间的lian

2014-06-08 19:09:27 1016

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除