自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(55)
  • 收藏
  • 关注

原创 win11 系统安装 wsl

在【开始】搜索【启用或关闭 Windows 功能】,打开Windows 功能对话框,勾选“适用于Linux的Windows子系统”和“虚拟机平台”两个选项。设置wsl版本:wsl --set-default-version 1。更新wsl核: wsl --update 【若干分钟】cd /mnt/ & ls , 看到系统盘: c d e。安装wsl: wsl --install 【若干分钟】【开始】搜索“文件资源管理器”,看到Ubuntu。管理员模式启动powershell。

2023-06-20 23:10:05 1565

原创 bug:_CRT_DEBUGGER_HOOK throws exception的解决办法

1、情况说明在一次dll的回调函数调用用,不时的出现_CRT_DEBUGGER_HOOK中断bug,不管是“不调试执行”还是“调试执行”,都会随机出现这个问题。一些文章说是,dll和使用dll的工程,是使用了不同版本的编译器导致,但是这个是同一个工程上出现的,排除这个原因。同时还有一些博客说是一下子同时启动了几十个线程,或者多个线程同时对一个文件读写等都会出现这种情况。我这边是同时开了多个线程,但是貌似没发现同时读写文件(或者我没发现),总之,我是通过这种方式将这个bug消除的:在调用函数的前面声明

2020-11-02 14:52:20 945

原创 出现错误 fatal error C1189: #error : WINDOWS.H already included. MFC apps must not #include <windows.h>

出现错误 fatal error C1189: #error : WINDOWS.H already included. MFC apps must not #include <windows.h>的解决办法:整理一个授权函数加到已有的dll中,在编译加入的代码时出现如题的bug,整了好久都没搞出来,但是突然间就把问题解决了,记录下关键的几个解决步骤:出现原因:和网上大部分博客记录的一样,就是Windows.h和afx.h的冲突问题,解决的办法就是哪个头文件放在前面。办法:1、在编译Wi

2020-10-29 18:38:30 3181

原创 makefile实例解析

项目Makefile解析笔记原由项目文件结构笔记原由之前对Makefile文件就有基本的了解,但仅限于编译、链接等基本的知识,很多语法不甚了解。所以在本次华为VCM接口对接项目中吃了大亏。原本直接可以用华为的提供的Makefile demo直接进行编译的,但是由于不熟悉该语法,不懂的其中的道道,导致在使用cmake进行编译的时候,出现很多第三方库的版本冲突问题:找不到头文件、链接不到库、库版本...

2019-10-08 15:24:52 287

原创 Google log 日志文件

一个IT从业人员,平时写代码过程必然会涉及到很多输出信息。很多时候输出的信息多了,前面输出的信息会被后面的信息覆盖,这就需要一种能把所有输出信息都保存下来的方法。 当然采用写txt文件文件的方法fwrite\ofstream也能达到同样的效果。但是这里记录Google开源的一种方法,在这仅介绍使用方法,简单、高效。1、首先是编译合适(特定编译器VS2012 2013,平台x64orx86)的dll

2016-09-11 15:42:21 2271

转载 caffe的相关链接记录

转自:http://blog.csdn.net/u010402786/article/details/51262004本来想自己详细写caffe源码的各个部分解析,后在网上看到很多大牛都写的非常好,于是我就将这些链接整理一下,方便查看。   Caffe版本  由于各个版本的不同,可能源码稍微有些不同,常用的版本有以下几个:    1.最原始的最开始版本:伯克

2016-08-23 09:12:32 533

转载 数据标准化和归一化

1、标准化:          把数据转化成服从某种分布的数据       如:均值为0,方差为sigma的数据A = floor(10*rand(10,1));mA = mean(A,1);muA = mA-A;sq_muA =muA.^2;var = mean(sq_muA,1);eps_var = sqrt(var.^2+0.01);AHa

2016-05-06 17:23:36 1059

转载 机器学习中的梯度下降法

感谢:http://www.kuqin.com/shuoit/20160330/351415.html最优化问题是机器学习算法中非常重要的一部分,几乎每一个机器学习算法的核心都是在处理最优化问题。本文中我讲介绍一些机器学习领域中常用的且非常掌握的最优化算法,看完本篇文章后你将会明白:什么是梯度下降法?如何将梯度下降法运用到线性回归模型中?如何利用梯度下降法处理大规模

2016-04-09 17:53:06 840

转载 Cmaker 是什么

转自:http://blog.163.com/jacky_ling0/blog/static/1373925712011072375418/本节介绍CMake里最常用的三个命令,分别是cmake_minimum_required; project; add_executable等。CMake是个好东西,在使用VTK, ITK, IGSTK, OpenCV, DCMTK等开源工具

2016-04-07 11:34:04 2400

转载 有关meanshift跟踪的理解(在opencv中实现)(转载)

http://okthen.blog.sohu.com/157859789.htmlmeanshift算法思想其实很简单:利用概率密度的梯度爬升来寻找局部最优。它要做的就是输入一个在图像的范围,然后一直迭代(朝着重心迭代)直到满足你的要求为止。但是他是怎么用于做图像跟踪的呢?这是我自从学习meanshift以来,一直的困惑。而且网上也没有合理的解释。经过这几天的思考,和对反向投影的理解

2015-10-14 09:54:07 690

转载 卷积神经网络CNN

近来在了解深度学习。深度神经网络的一大特点就是含有多隐含层。卷积神经网络(CNN)算是深度神经网的前身了,在手写数字识别上在90年代初就已经达到了商用的程度。本文中将简要介绍CNN,由于相应的博文资料已经很多,也写的很好,本篇最有价值的是参考资料部分。前向神经网络数字识别假设我们的图片是28*28像素的,使用最简单的神经网络进行识别,如图1图1输入层

2015-06-20 23:46:47 765

转载 SVM(六)将SVM用于多类分类

从 SVM的那几张图可以看出来,SVM是一种典型的两类分类器,即它只回答属于正类还是负类的问题。而现实中要解决的问题,往往是多类的问题(少部分例外,例如垃圾邮件过滤,就只需要确定“是”还是“不是”垃圾邮件),比如文本分类,比如数字识别。如何由两类分类器得到多类分类器,就是一个值得研究的问题。还以文本分类为例,现成的方法有很多,其中一种一劳永逸的方法,就是真的一次性考虑所有样本,并求解一个多

2015-04-28 22:11:50 684

转载 SVM(五)松弛变量

现在我们已经把一个本来线性不可分的文本分类问题,通过映射到高维空间而变成了线性可分的。就像下图这样:圆形和方形的点各有成千上万个(毕竟,这就是我们训练集中文档的数量嘛,当然很大了)。现在想象我们有另一个训练集,只比原先这个训练集多了一篇文章,映射到高维空间以后(当然,也使用了相同的核函数),也就多了一个样本点,但是这个样本的位置是这样的:就是图中黄色那个点,它是

2015-04-28 22:10:37 1085

转载 SVM(四)为何需要核函数

生存?还是毁灭?——哈姆雷特可分?还是不可分?——支持向量机之前一直在讨论的线性分类器,器如其名(汗,这是什么说法啊),只能对线性可分的样本做处理。如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环,永远也解不出来。这必然使得它的适用范围大大缩小,而它的很多优点我们实在不原意放弃,怎么办呢?是否有某种方法,让线性不可分的数据变得线性可分呢?有!其思想说来也

2015-04-28 22:07:46 648

转载 SVM(三)

让我再一次比较完整的重复一下我们要解决的问题:我们有属于两个类别的样本点(并不限定这些点在二维空间中)若干,如图,圆形的样本点定为正样本(连带着,我们可以把正样本所属的类叫做正类),方形的点定为负例。我们想求得这样一个线性函数(在n维空间中的线性函数):  g(x)=wx+b  使得所有属于正类的点x+代入以后有g(x+)≥1,而所有属于负类的点x-代入后有

2015-04-28 22:04:47 539

转载 SVM(二)线性分类器的求解——问题的描述

上节说到我们有了一个线性分类函数,也有了判断解优劣的标准——即有了优化的目标,这个目标就是最大化几何间隔,但是看过一些关于SVM的论文的人一定记得什么优化的目标是要最小化||w||这样的说法,这是怎么回事呢?回头再看看我们对间隔和几何间隔的定义:  间隔:δ=y(wx+b)=|g(x)|  几何间隔:  可以看出δ=||w||δ几何。注意到几何间隔与||w||是成反比的,因

2015-04-28 21:53:47 827

转载 SVM的八股简介(一)

转自:http://www.cnblogs.com/cy163/archive/2009/01/02/1367284.html最近看paper看到一个奇怪的公式,一头雾水,找了好多资料才知道是SVM、SVR。又看了很多博客还是一头雾水,很幸运,看到这篇文章,虽然有点啰嗦,但是很详细,看后明白了很多。有很需要重点理解的我都红色做了标注。(一)SVM的八股简介支持向量机(Sup

2015-04-28 21:29:44 744

转载 KPCA存在模糊的地方

主成份(Principal Component Analysis)分析是降维(Dimension Reduction)的重要手段。每一个主成分都是数据在某一个方向上的投影,在不同的方向上这些数据方差Variance的大小由其特征值(eigenvalue)决定。一般我们会选取最大的几个特征值所在的特征向量(eigenvector),这些方向上的信息丰富,一般认为包含了更多我们所感兴趣的信息。当然,这

2015-04-15 09:43:54 835

转载 图像局部特征点检测算子综述

总体来说,图像特征可以包括颜色特征、纹理特等、形状特征以及局部特征点等。其中局部特点具有很好的稳定性,不容易受外界环境的干扰,本篇文章也是对这方面知识的一个总结。1. 局部特征点图像特征提取是图像分析与图像识别的前提,它是将高维的图像数据进行简化表达最有效的方式,从一幅图像的M×N×3的数据矩阵中,我们看不出任何信息,所以我们必须根据这些数据提取出图像中的关键信息,一些基本

2015-02-01 12:26:43 2398

转载 LS,MMSE,LMMSE,ML,MAP,LMS,AR,MSE误差介绍

出处http://bbs.cnttr.com/viewthread.php?tid=128502Q:是否有朋友能对LS,MMSE,LMMSE,ML,MAP,LMS,AR,MSE误差等算法做一个比较清晰的介绍呢 S:    谈谈我的理解,不当之处欢迎大家指正:这一系列算法都可以是基于接收数据来对目标数据进行估计,1。LS用于接收到的数据块长度一定,并且数据

2015-01-21 10:27:48 6935 1

转载 深度学习之前的基础知识理解

总结比较好的博客转载收藏了。深度学习(Deep Learning),又叫Unsupervised Feature Learning或者Feature Learning,是目前非常热的一个研究主题。本文将主要介绍Deep Learning的基本思想和常用的方法。一. 什么是Deep Learning?实际生活中,人们为了解决一个问题,如对象的分类(对象可是是文档、图像

2015-01-07 15:46:13 834

转载 深度置信网络(DBN)和受限玻尔兹曼机(RBM)

原博客于http://blog.163.com/silence_ellen/blog/static/176104222201431710264087/本篇非常简要地介绍了深度信念网络的基本概念。文章先简要介绍了深度信念网络(包括其应用实例)。接着分别讲述了:(1) 其基本组成结构——受限玻尔兹曼机的的基本情况,以及,(2) 这个基本结构如何组成深度信念网络。 本文仅仅能使读者了解深度信念网

2015-01-07 09:41:38 15322 3

转载 Lasso思想及算法(摘抄)

学习L1、只有这么几个人在做LASSO,他们都是大牛,你可以直接GOOGLE他们的主页,看他们在这块发了什么文章。yu bin, zhu ji, zhang tong, hui zou, yuan ming, Nicolai Meinshausen, Peter Bühlmann, Martin J. Wainwright, jianqing fan, Liza Levina, P

2014-11-10 15:45:37 1418

转载 深刻理解KSVD字典训练方法

在两个博客的基础上深入理解KSVD算法字典训练

2014-11-02 11:34:26 9086 2

转载 吉布斯采样(Gibbs Sampling)

jibus几个可以学习gibbs sampling的方法1,读Bishop的Pattern Recognition and Machine Learning,讲的很清楚,但是我记得好像没有例子。2,读artificial Intelligence,2、3版,都有。但是我没读过。3,最方便的,查wiki,这个说的最清楚。这里通俗点的解释一下。首先,什么是samplin

2014-10-14 11:31:11 1418

转载 拉格朗日乘子和KKT条件 的最优化问题

在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却

2014-07-05 22:36:12 1037

转载 Sparsity稀疏编码(三) (值得阅读)

感谢原著的辛勤劳作~,稀疏编码(sparse coding)和低秩矩阵(low rank)的区别       上两个小结介绍了稀疏编码的生命科学解释,也给出一些稀疏编码模型的原型(比如LASSO),稀疏编码之前的探讨文章就不说了,今天开始进入机器学习领域的稀疏表达。稀疏编码进入机器学习领域后,出现了很多应用,比如计算视觉领域的图像去噪,去模糊,物体检测,目标识别和互联网领域的推

2014-05-09 10:24:06 859

转载 Sparsity稀疏编码(二)(值得阅读)

了更进一步的清晰理解大脑皮层对信号编码的工作机制(策略),需要把他们转成数学语言,因为数学语言作为一种严谨的语言,可以利用它推导出期望和要寻找的程式。本节就使用概率推理(bayes views)的方式把稀疏编码扩展到随时间变化的图像上,因为人类或者哺乳动物在日常活动中通过眼睛获取的信号是随时间变化而变化的,对于此类信号仍然有一些稀疏系数和基可以描述他们,同类型的处理方式也有慢特征分析(slow

2014-05-09 10:22:23 746

转载 Sparsity稀疏编码(一)(值得阅读)

稀疏编码来源于神经科学,计算机科学和机器学习领域一般一开始就从稀疏编码算法讲起,上来就是找基向量(超完备基),但是我觉得其源头也比较有意思,知道根基的情况下,拓展其应用也比较有底气。哲学、神经科学、计算机科学、机器学习科学等领域的砖家、学生都想搞明白人类大脑皮层是如何处理外界信号的,大脑对外界的“印象”到底是什么东东。围绕这个问题,哲学家在那想、神经科学家在那用设备观察、计算机和机器学习科学家则是

2014-05-09 10:17:20 874

转载 opencv 模板匹配目标检测

首先,参看上图。假设褐色的大图为待测图片,红色小图为模板图片。       1.result中数据的含义。       模板匹配函数cvMatchTemplate依次计算模板与待测图片的重叠区域的相似度,并将结果存入映射图像result当中,也就是说result图像中的每一个点的值代表了一次相似度比较结果。      2.result的尺寸大小。       如图可

2014-05-03 20:46:30 3449

转载 超分辨率图像重建技术简要

超分辨率图像重建(Super-resolution Image Reconstruction)    要讨论超分辨率图像重建,首先要弄清楚什么叫超分辨率重建,为什么要超分辨率重建。我希望能把事情说得比较简单一些。    为了搞明白什么叫超分辨率,先来弄清楚什么叫分辨率。分辨率其实有很多种啦,什么光谱分辨率啊,辐射分辨率啊,时间分辨率啊,空间分辨率等等。其实说白了,分辨率就是对细节分

2014-04-26 23:02:24 6419

转载 从K近邻算法、距离度量谈到KD树、SIFT+BBF算法

转自:http://blog.csdn.net/v_july_v/article/details/8203674/

2014-04-14 15:44:28 1247

转载 矩阵的本质理解

转自:http://blog.csdn.net/sck5711/article/details/4034263 前不久chensh出于不可告人的目的,要充当老师,教别人线性代数。于是我被揪住就线性代数中一些务虚性的问题与他讨论了几次。很明显,chensh觉得,要让自己在讲线性代数的时候不被那位强势的学生认为是神经病,还是比较难的事情。    可怜的chensh,谁让你趟这个地雷阵?!色令智

2014-04-10 08:53:08 1202

转载 PSNR以及SSIM

PSNR(Peak Signal to Noise Ratio)峰值信噪比,一种全参考的图像质量评价指标。其中,MSE表示当前图像X和参考图像Y的均方误差(Mean Square Error),H、W分别为图像的高度和宽度;n为每像素的比特数,一般取8,即像素灰阶数为256. PSNR的单位是dB,数值越大表示失真越小。图像压缩中典型的信噪比在20~40dB之间,越高越好。PSNR是最

2014-03-31 23:13:56 5357

转载 Matlab 之 im2col

函数原型:B = im2col(A,[m n],block_type)功        能:将矩阵A分为m×n的子矩阵,再将每个子矩阵作为B的一列。(1)当block_type为distinct时,将A分解为互不重叠的子矩阵,并转换成列。若不足m×n,以0补足。例:                          A=   15   36   42   40   67   88

2014-03-31 17:20:34 1935

原创 相关系数

1、相关系数:是用以反映变量之间相关关系密切程度的统计指标。相关系数是按积差方法计算,同样以两变量与各自平均值的离差为基础,通过两个离差相乘来反映两变量之间相关程度;着重研究线性的单相关系数。相关系数  r 的公式:                                        例:向量x=[1 0 1]'  y=[0  1 0];  计算两向量的相关系数为:-0.

2014-03-28 16:44:12 6240 1

转载 MP算法和OMP算法及其思想

主要介绍MP(Matching Pursuits)算法和OMP(Orthogonal Matching Pursuit)算法[1],这两个算法虽然在90年代初就提出来了,但作为经典的算法,国内文献(可能有我没有搜索到)都仅描述了算法步骤和简单的应用,并未对其进行详尽的分析,国外的文献还是分析的很透彻,所以我结合自己的理解,来分析一下写到博客里,算作笔记。1. 信号的稀疏表示(sparse re

2014-03-27 10:11:28 805

转载 线性回归标准方程及其概率解释

线性回归作为一种监督学习方法,在机器学习领域中属于最基本的优化问题,即根据现有的数据集,找到一个能够最好拟合这组数据的线性函数即可,根据这个线性函数对新来的数据进行预测。本文将会覆盖最简单的线性回归的解释和标准方程求解最优线性回归参数,至于梯度下降法求解,会有单独的另外一篇博客介绍。什么是回归分析显而易见,线性回归就是一种回归分析,那么什么是回归分析呢?简单的说,就是找到一条能

2014-03-25 23:23:38 1820

转载 正则化和归一化的浅层理解

正则化(Regularization)、归一化(也有称为正规化/标准化,Normalization)是对数据尽心预处理的方式,他们的目的都是为了让数据更便于我们的计算或获得更加泛化的结果,但并不改变问题的本质,下面对他们的作用分别做一下科普,如有不正确之处,求指正!前言需要注意的是,这些名词在不同的领域含义也有点区别,这里仅仅指的是在进行机器学习研究的时候所使用的意义。一、正则化(

2014-03-25 22:56:18 1760

转载 3D重建基础

2D图像、3D重建、马尔可夫随机场、病态问题用单张2D图像重构3D场景[email protected]://blog.csdn.net/zouxy09       之前看到Stanford大学的机器学习公开课程的lecture01中,Andrew Ng介绍他的两个学生用单幅图像去重构这个场景的三维模型。感觉非常厉害,所以就自己了解了一下。而这个研究也在相应的大学网站上面提供

2014-03-24 17:29:06 1200

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除