自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 Bayesian Browsing Model 的个人理解

BBM

2016-09-30 15:21:49 537

原创 读论文《Attention and Augmented Recurrent Neural Network》

谷歌大脑计划研究员博文

2016-09-09 20:41:30 711

原创 读论文《Ranking Relevance in Yahoo Search》

排序

2016-09-09 10:08:34 1365 1

原创 GDA

GDA

2016-09-08 21:30:53 779

原创 GRU

RNN

2016-09-08 21:30:24 433

原创 序列相关

序列标注序列回归序列分类

2016-09-08 21:28:56 455

原创 DSSM

MS推出的深度学习模型

2016-09-08 21:27:11 2001

原创 损失函数:MSE VS 交叉熵

两者的优劣

2016-09-08 21:26:40 3146

原创 Batch Normalization个人理解

作用和目的

2016-09-08 10:25:13 321

原创 data augmentation 个人理解

数据增强

2016-09-08 10:24:30 486

原创 迁移学习

multi-task 是 迁移学习的分支之一

2016-09-08 10:23:21 258

原创 增强学习

待学习

2016-09-08 10:22:38 291

原创 文本打tag

小说打tag多分类LTR的使用fasttext的使用

2016-09-08 10:18:48 535

原创 LTR的理解

point-wisepair-wiselist-wise神经网络

2016-09-08 10:17:08 3663

原创 残差神经网络

残差的体现

2016-09-08 10:15:50 1441

原创 Highway Network

结构及其在NLP中的应用

2016-09-08 10:15:10 509

原创 概率图模型

将 ML的各个领域串联起来

2016-09-08 10:14:19 548

原创 正则化方法的个人理解

经验风险结构风险正则化是结构风险的体现

2016-09-08 10:10:55 520

原创 神经网络的梯度消失问题

随着网络深度的增加,BP算法引起的梯度消失问题愈发严重

2016-09-08 10:09:54 2860

原创 fasttext

同样的作者

2016-08-26 16:12:02 4309

原创 Topic Model

LSILDA

2016-08-26 16:10:42 908

原创 attention

attention

2016-08-26 09:38:07 278

原创 autoencode

autoencode

2016-08-26 09:37:37 787

原创 encoder-decoder

encoder-decoder

2016-08-26 09:37:08 620

原创 LSTM的理解

RNN避免了梯度消失问题

2016-08-26 09:23:19 304

原创 交叉熵及相关

LR的损失函数RankNet损失函数

2016-08-26 09:22:05 384

原创 LambdaMART小结

pairwise

2016-08-26 09:16:16 955

原创 全角与半角的英文

常用的是全角:sbc半角:dbc英文的出处一直 未查到

2016-08-26 09:13:27 616

原创 能量模型

基于能量的模型

2016-08-26 09:11:36 792 2

原创 word2vec 与 Glove 对比

都是词向量。Glove的推出时间比 word2vec要晚孰优孰劣的问题,并没有完全的定论。但 word2vec 的知名度却要跟很多

2016-08-26 09:10:12 3615 10

原创 word2vec个人理解

c-bow 和 skip-gram 直观区别如 图所示。但真实的区别是:在计算一个 term 的向量时, c-bow是将该term 的 window内所有的term累加后进行计算,而skip-gram却是将依次使用每一个term进行计算。有点类似 Batch gradient descent 和  Stochastic gradient descent  的区别

2016-08-26 09:08:28 414

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除