自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 收藏
  • 关注

原创 CNN for NLP——Convolutional Neural Networks for Sentence Classification

又要开始一段看论文的调研生活了。那我开始翻译整理论文了。《Convolutional Neural Networks for Sentence Classification》 这是一篇很经典的用卷积神经网络做文本分类的文章。 作者是纽约大学(New York University)的 Yoon Kim github是 https://github.com/yoonkim/CNN_sent...

2018-06-14 17:11:05 902

转载 测试用例的几种常见设计方法

测试用例常见的设计方法有:等价类划分法、边界值分析法、错误推测法、判定表法、正交实验法。一、等价类划分法顾名思义,顾名思义,等价类划分,就是将测试的范围划分成几个互不相交的子集,他们的并集是全集,从每个子集选出若干个有代表性的值作为测试用例。   例如,我们要测试一个用户名是否合法,用户名的定义为:8位数字组成的字符。   我们可以先划分子集:空用户名,1-7位数字,8位数字,9位或以...

2018-06-07 15:54:41 125738 8

转载 机器学习性能评估指标

最近一直在改模型,关注的是 Accuracy、MSE;但是除此之外,还有不少评价指标。。。【笑哭】分类回归分类True Positive(真正, TP):将正类预测为正类数. True Negative(真负 , TN):将负类预测为负类数. False Positive(假正, FP):将负类预测为正类数 →→ 误报 (Type I error). False Neg...

2018-05-22 21:11:50 907

原创 LSTM,LSTM 比 RNN 优化了哪些地方?卷积神经网络与循环神经网络的区别

在普通的全连接网络或CNN中,每层神经元的信号只能向上一层传播,样本的处理在各个时刻独立,因此又被称为前向神经网络 (Feed-forward Neural Networks)。而在RNN中,神经元的输出可以在下一个时间戳直接作用到自身,即第i层神经元在m时刻的输入,除了 (i-1) 层神经元在该时刻的输出外,还包括其自身在 (m-1)时刻的输出!RNN和传统的多层感知机不同的就是和时间沾上边...

2018-04-12 17:03:10 8673

原创 Xgboost与GBDT

· 传统GBDT以CART作为基分类器,xgboost还支持线性分类器· xgboost工具支持自定义代价函数,只要函数可一阶和二阶求导· 传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。(详解见后面)· xgboost在代价函数里加入了正则项,用于控制模型的复杂度。· Shrinkage(缩减),相当于学习速率(xg...

2018-04-03 15:22:25 430

原创 L1 L2 正则化

L1 L2 正则化 是什么ℓ1 -norm和 ℓ2-norm,中文称作 L1正则化 和 L2正则化,或者 L1范数 和 L2范数。 L1正则化和L2正则化可以看做是损失函数的惩罚项。 所谓的 “惩罚” 是指对损失函数中的某些参数做一些限制。 对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。如图,加号后面的分别是 L...

2018-04-03 10:22:39 688

原创 基因表达式编程——GEP

近年来,一些新的研究方法,如蚁群算法、人工神经网络、细胞自动机、人工免疫算法、进化算法等,它们通过模拟某一自然现象或过程(“拟物”或“仿生”)来求得问题解决的办法,具有高度并行与自组织、自适应和自学习等特征,已经在人工智能、机器学习、数据挖掘等领域中显示出强大的生命力与进一步发展的潜力。在论文 基因表达式编程理论及其监督及其学习模型研究- 张克俊 中 提到: 通过构造独特的适应值函数和交叉验...

2018-03-17 08:44:18 21090 6

原创 深度学习中 的 Attention机制

注意力机制即 Attention mechanism在序列学习任务上具有巨大的提升作用,在编解码器框架内,通过在编码段加入Attention模型,对源数据序列进行数据加权变换,或者在解码端引入Attention 模型,对目标数据进行加权变化,可以有效提高序列对序列的自然方式下的系统表现。Attention:Attention模型的基本表述可以这样理解成: 当我们人在看一样东西的时候,...

2018-03-13 15:15:13 92451 6

原创 Python编程知识_系列 II ——边写代码边写笔记,备忘!

在 DataFrame 后添加一行并且保存为 csv 文件s = pd.Series({'acc':"min_loss", 'loss':log.loc[log['loss'].idxmin]['loss'], 'lr':"val_acc",'val_acc':log.loc[log['loss'].idxmin]['val_acc']})# 这里 Series 必须是 dict-lik...

2018-03-08 19:33:46 299

原创 C语言 使用内置快排函数——qsort(),以及结构体两元素的话

【 #很容易忘记怎么写# 系列】#include<stdlib.h>是在这个头文件中的函数!#include<stdio.h>#include<stdlib.h>int cmp(const void *a,const void *b){ return ( *(int *)a - *(int *)b ) ;}int main() {...

2018-03-06 11:29:48 1520

翻译 两篇论文中的 ConvLSTM 对比

【这篇重点在分析一下改变了的网络模型,其他的写的并不全面】1、《Deep Learning Approach for Sentiment Analysis of Short Texts》learning long-term dependencies with gradient descent is difcult in neural network language model bec...

2018-03-05 11:40:10 8817 3

转载 Softmax回归(softmax regression)

http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_beginners.html我们用 MNIST数据集当例子。60000行的训练数据集(mnist.train)10000行的测试数据集(mnist.test) Softmax模型可以用来给不同的对象分配概率。 即使在之后,我们训练更加精细

2018-01-10 20:42:21 2266

翻译 Time-Series Classification with COTE: The Collective of Transformation-Based Ensembles

1 INTRODUCTIONOur second hypothesis was that we can improve TSC performance through ensembling. Although the value of ensembling is well known, our approach is unusual in that we inject diversity

2018-01-09 17:05:12 892

原创 模型融合与集成

介绍堆叠(也称为元组合)是用于组合来自多个预测模型的信息以生成新模型的模型组合技术。通常,堆叠模型(也称为二级模型)因为它的平滑性和突出每个基本模型在其中执行得最好的能力,并且抹黑其执行不佳的每个基本模型,所以将优于每个单个模型。因此,当基本模型显著不同时,堆叠是最有效的。关于在实践中怎样的堆叠是最常用的,这里我提供一个简单的例子和指导。首先先边看边总结一下这篇博客的内容: 数据比赛大杀

2018-01-06 16:40:12 5767

转载 Keras 深度学习代码笔记——模型保存与加载

你可以使用model.save(filepath)将Keras模型和权重保存在一个HDF5文件中,该文件将包含:模型的结构,以便重构该模型模型的权重训练配置(损失函数,优化器等)优化器的状态,以便于从上次训练中断的地方开始使用keras.models.load_model(filepath)来重新实例化你的模型,如果文件中存储了训练配置的话,该函数还会同时完成模型的编译 例子:

2018-01-05 22:15:21 2410 1

原创 自然语言处理中的多模型深度学习

这里先分享两个分享: 一个是用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践,另一个是 brightmart 的 text_classification,里面用 Keras 实现了很多文本分类的模型)以及下面的各种分享: 2017 知乎看山杯从入门到第二 知乎看山杯夺冠记 深度学习与文本分类总结第二篇–大规模多标签文本分类 2017知乎看山杯总结

2018-01-03 23:10:34 5506 1

翻译 BB_twtr 使用CNNs+LSTMs做SemEval-2017 Task 4

paper: BB_twtr at SemEval-2017 Task 4: Twitter Sentiment Analysis with CNNs and LSTMs

2017-12-29 15:54:39 3231

原创 Python编程知识——边写代码边写笔记,备忘!

for中的范围是 [a, b)for i in range(1,10): print(i)输出:123456789定义空的数组(numpy中的array; list)X = np.empty(0,dtype=int)Xoutput:array([], dtype=int32)list = []往数组里添加元素:list:ap

2017-12-27 20:14:51 510

原创 Windows下安装 XGBoost (Installing XGBoost For Anaconda on Windows)

Windows下安装 XGBoostInstalling XGBoost For Anaconda on Windows

2017-12-12 12:13:39 1898 2

原创 备忘:jupyter notebook 更改默认目录

jupyter notebook 更改默认目录

2017-12-11 00:25:12 506

转载 深度学习-学习笔记--深度学习中的epochs,batch_size,iterations详解

深度学习 小知识备忘

2017-11-20 22:09:52 1762 1

原创 linux 解压缩 压缩命令 备忘

linux 解压缩 压缩 命令 备忘

2017-11-19 11:43:22 230

转载 python下安装eemd

python下安装eemd工具包

2017-11-16 18:24:34 5484 7

转载 Keras上实现卷积神经网络CNN——一个例子程序

卷积神经网络例子mnist_cnnkeras/tensorflow/caffe

2017-11-16 18:05:16 5104

转载 动态时间规整(DTW)

动态时间规整(DTW)  Dynamic Time Warping(DTW)诞生有一定的历史了(日本学者Itakura提出),它出现的目的也比较单纯,是一种衡量两个长度不同的时间序列的相似度的方法。应用也比较广,主要是在模板匹配中,比如说用在孤立词语音识别(识别两段语音是否表示同一个单词),手势识别,数据挖掘和信息检索等中。一、概述  在大部分的学科中,时间序列是数据的一种常见表示...

2017-10-21 15:26:37 1874 1

翻译 A new boosting algorithm for improved time-series forecasting with recurrent neural networks

boostingRNN

2017-10-07 20:53:40 419

翻译 神经网络 ——一个很好的解释以及简单实现 Implementing a Neural Network from Scratch in Python – An Introduction

神经网络——一个很好的解释从头开始以及用Python简单实现的神经网络

2017-10-06 10:17:40 904 1

翻译 TICC- TimeSeries Analyze

TICCGitHub代码解释

2017-10-03 17:39:05 5986 5

转载 EMD经验模态分解——分析时间序列

EMD,(Empirical Mode Decomposition),经验模态分解Time Series Data,时间序列数据

2017-10-01 16:19:18 67849 18

原创 Boosting and AdaBoost

Boosting and AdaBoost

2017-09-26 20:00:31 506

原创 Xgboost原理及使用

Xgboost

2017-09-21 16:16:42 2178

转载 欢迎使用CSDN-markdown编辑器

欢迎使用Markdown编辑器写博客本

2017-09-18 10:37:04 366

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除