自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

转载 注意力机制(Attention Mechanism)在自然语言处理中的应用

###转载自http://www.cnblogs.com/robert-dlut/p/5952032.html注意力机制(Attention Mechanism)在自然语言处理中的应用    近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经网络成为了最近神经网络研究的一个热点,本人最近也学习了一些基于attentio

2017-02-21 23:43:16 537

转载 基于3D卷积神经网络的人体行为理解(论文笔记)

###转载自http://blog.csdn.net/zouxy09/article/details/9002508基于3D卷积神经网络的人体行为理解(论文笔记)[email protected]://blog.csdn.net/zouxy09        最近看Deep Learning的论文,看到这篇论文:3D Convolutional Neural Ne

2017-02-21 23:39:14 570

转载 PGM学习之三 朴素贝叶斯分类器(Naive Bayes Classifier)

原文:http://blog.csdn.net/polly_yang/article/details/9471223  介绍朴素贝叶斯分类器的文章已经很多了。本文的目的是通过基本概念和微小实例的复述,巩固对于朴素贝叶斯分类器的理解。一 朴素贝叶斯分类器基础回顾        朴素贝叶斯分类器基于贝叶斯定义,特别适用于输入数据维数较高的情况。虽然朴素贝叶斯分类器很

2016-12-13 15:42:39 746

转载 PGM学习之二 PGM模型的分类与简介

原文:http://blog.csdn.net/polly_yang/article/details/9336129  通过上一篇文章的介绍,相信大家对PGM的定义和大致应用场景有了粗略的了解。那么接下来我们来深入了解下PGM。首先要介绍的是Probabilistic models(概率模型),常用来描述不同的随机变量之前的关系,主要针对变量或变量间的相互不确定性的概率关系建模。总的来

2016-12-13 15:40:45 974

转载 PGM学习之一

一 课程基本信息          本课程是由Prof.Daphne Koller主讲,同时得到了Prof. Kevin Murphy的支持,在coursera上公开传播。在本课程中,你将学习到PGM(Probabilistic Graphical Models)表示的基本理论,以及如何利用人类自身的知识和机器学习技术来构建PGM;还将学习到使用PGM算法来对有限、带噪声的证据

2016-12-13 15:37:54 347

转载 经典的hash算法 常见hash 哈希算法

计算理论中,没有Hash函数的说法,只有单向函数的说法。所谓的单向函数,是一个复杂的定义,大家可以去看计算理论或者密码学方面的数据。用“人 类”的语言描述单向函数就是:如果某个函数在给定输入的时候,很容易计算出其结果来;而当给定结果的时候,很难计算出输入来,这就是单项函数。各种加密函 数都可以被认为是单向函数的逼近。Hash函数(或者成为散列函数)也可以看成是单向函数的一个逼近。即它接近于满足单向

2016-10-23 19:18:37 982

转载 ITQ(Iterative Quantization)迭代量化方法详解 hash 哈希算法

看过的文章,不做记录,即便当时理解透了,过一段时间后,知识总会模糊不清。所以从现在开始,对一些自己阅读过的一些精彩的文章,悉心记录,方便自己查阅温故,当然如果对同行有所裨益的话,亦是一件开心的事。好了,回归正题。这篇文章发表在2011年CVRP上,一作是Yunchao Gong,师从Sanjiv Kumar,关于Sanjiv Kumar可以到她的HomePage上了解。 这

2016-10-23 19:17:39 1784

转载 简单易懂讲解simhash算法 hash 哈希

原文来自:http://blog.csdn.net/le_le_name/article/details/51615931通过 采集系统 我们采集了大量文本数据,但是文本中有很多重复数据影响我们对于结果的分析。分析前我们需要对这些数据去除重复,如何选择和设计文本的去重算法?常见的有余弦夹角算法、欧式距离、Jaccard相似度、最长公共子串、编辑距离等。这些算法对于待比较的文本数据不多时

2016-10-23 19:16:22 815

转载 常用 Hash 算法冲突解决方法分析

下面是我直接复制的,有不懂的欢迎qq交流:1281907942看了ConcurrentHashMap的实现, 使用的是拉链法.虽然我们不希望发生冲突,但实际上发生冲突的可能性仍是存在的。当关键字值域远大于哈希表的长度,而且事先并不知道关键字的具体取值时。冲突就难免会发 生。另外,当关键字的实际取值大于哈希表的长度时,而且表中已装满了记录,如果插入一个新记录,不仅发生冲突,而

2016-10-23 19:14:34 253

转载 Li Fei-fei写给她学生的一封信,如何做好研究以及写好PAPER

首先是端正做research的态度吧。De-mystifying Good Research and Good Papers By Fei-Fei Li, 2009.03.01  Please remember this:  1000+ computer vision papers get published every year! Only 5-10 ar

2016-10-06 16:49:26 281

转载 特征降维-PCA(Principal Component Analysis)

原文来自:http://blog.csdn.net/xl890727/article/details/16898315在进行图像的特征提取的过程中,提取的特征维数太多经常会导致特征匹配时过于复杂,消耗系统资源,不得不采用特征降维的方法。所谓特征降维,即采用一个低纬度的特征来表示高纬度。特征降维一般有两类方法:特征选择和特征抽取。特征选择即从高纬度的特征中选择其中的一个子集来作为新的特征;而

2016-10-03 20:49:08 471

转载 主成分分析(Principal components analysis)-最大方差解释

原文来自:http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html     在这一篇之前的内容是《Factor Analysis》,由于非常理论,打算学完整个课程后再写。在写这篇之前,我阅读了PCA、SVD和LDA。这几个模型相近,却都有自己的特点。本篇打算先介绍PCA,至于他们之间的关系,只能是边学边体会了。PCA以

2016-10-03 20:47:28 1437

转载 海量数据相似度计算之simhash和海明距离

原文来自:http://www.lanceyan.com/tech/arch/simhash_hamming_distance_similarity.html通过 采集系统 我们采集了大量文本数据,但是文本中有很多重复数据影响我们对于结果的分析。分析前我们需要对这些数据去除重复,如何选择和设计文本的去重算法?常见的有余弦夹角算法、欧式距离、Jaccard相似度、最长公共子串

2016-10-03 16:15:30 639

转载 图像检索----迭代量化(Iterative Quantization)理解

原文出处:http://blog.csdn.net/CHIERYU一.目标数据集为:,每个样本为d维,每个样本为一个行向量。假设所有样本都是0均值的,即满足一下条件: 通过c个函数把每个样本x映射到一个二进制超立方体的一个顶点上,其中是一个列向量。因此得到每个样本x在二进制超立方体上的二进制编码,编码长度c,用矩阵表示描述这个过程就是: 其中sgn函数是

2016-10-03 12:29:12 598

转载 三种强大的物体识别算法——SIFT/SURF、haar特征、广义hough变换的特性对比分析

原文:http://www.cnblogs.com/nsnow/archive/2011/12/31/2308719.html识别算法概述: SIFT/SURF基于灰度图,一、首先建立图像金字塔,形成三维的图像空间,通过Hessian矩阵获取每一层的局部极大值,然后进行在极值点周围26个点进行NMS,从而得到 粗略的特征点,再使用二次插值法得到精确特征点所在的层(尺度),即完成

2016-08-18 10:23:32 589

转载 图像局部特征点检测算法综述

转自 http://www.cnblogs.com/ronny/p/4260167.html 研究图像特征检测已经有一段时间了,图像特征检测的方法很多,又加上各种算法的变形,所以难以在短时间内全面的了解,只是对主流的特征检测算法的原理进行了学习。总体来说,图像特征可以包括颜色特征、纹理特等、形状特征以及局部特征点等。其中局部特点具有很好的稳定性,不容易受外界环境的干扰,本篇文章也是对这方面

2016-08-18 10:22:04 4336

转载 Deep Learning模型之:CNN卷积神经网络(二) 文字识别系统LeNet-5

原文:http://blog.csdn.net/u010555688/article/details/24848367    在经典的模式识别中,一般是事先提取特征。提取诸多特征后,要对这些特征进行相关性分析,找到最能代表字符的特征,去掉对分类无关和自相关的特征。然而,这些特征的提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类

2016-08-18 10:13:03 1403

转载 Deep Learning模型之:CNN卷积神经网络(一)深度解析CNN

http://m.blog.csdn.net/blog/wu010555688/24487301 本文整理了网上几位大牛的博客,详细地讲解了CNN的基础结构与核心思想,欢迎交流。 [1]Deep learning简介[2]Deep Learning训练过程[3]Deep Learning模型之:CNN卷积神经网络推导和实现[4]Deep Learning模型之:CNN的

2016-08-18 10:11:30 28321

转载 Stanford机器学习---第九讲. 聚类

原文:http://blog.csdn.net/abcjennifer/article/details/7914952 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持

2016-08-18 10:09:25 287

转载 Stanford机器学习---第八讲. 支持向量机SVM

原文: http://blog.csdn.net/abcjennifer/article/details/7849812 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines

2016-08-18 10:08:24 285

转载 Stanford机器学习---第七讲. 机器学习系统设计

原文:http://blog.csdn.net/abcjennifer/article/details/7834256 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持

2016-08-18 10:07:46 203

转载 Stanford机器学习---第六讲. 怎样选择机器学习方法、系统

原文:http://blog.csdn.net/abcjennifer/article/details/7797502本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机

2016-08-18 10:06:53 299

转载 Stanford机器学习---第五讲. 神经网络的学习 Neural Networks learning

原文 http://blog.csdn.net/abcjennifer/article/details/7758797本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机

2016-08-18 10:02:11 475

转载 Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable

原文:http://blog.csdn.net/abcjennifer/article/details/7700772 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持

2016-08-05 14:23:23 318

转载 Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization

原文:http://blog.csdn.net/abcjennifer/article/details/7716281 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持

2016-08-05 14:22:43 724

转载 Stanford机器学习---第四讲. 神经网络的表示 Neural Networks representation

原文 http://blog.csdn.net/abcjennifer/article/details/7749309 本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持

2016-08-05 14:21:08 318

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除