自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 资源 (1)
  • 收藏
  • 关注

翻译 Learning representations by back-propagating errors【译文】

Learning representations by back-propagating errors通过反向传播错误学习表示反向传播算法最初是在1970年代引入的,但是直到1986年David Rumelhart,Geoffrey Hinton和Ronald Williams发表了著名论文【Learning representations by back-propagating errors Rumelhart et al., Nature, 1986】后,它的重要性才得到充分认识。这篇篇论文描述

2020-08-23 02:51:11 2694 1

原创 基于keras的诗词文本生成理解

文章目录文本生成使用语言模型逐字生成文字的过程基于keras的诗词生成基本流程:文本生成使用语言模型逐字生成文字的过程【1-输入:初始文本】======>======>======> 【语言模型】======>======>======> 【下一个字符的概率分布】======>======>======> 【采样策略:对下一个字符采样得到...

2020-04-04 10:37:23 408

原创 Seq2Seq模型细节理解

文章目录1. Seq2seq model1.1 什么是Seq2Seq模型1.2 应用领域范围1.3 工作原理1.4 Seq2Seq模型的局限1.5 改进Seq2Seq模型:引入Attention Mechanism2. 参考链接1. Seq2seq model1.1 什么是Seq2Seq模型  Seq2Seq模型是一种基于encoder-decoder的机器翻译方法。该方法将可变长度的输入序...

2020-04-04 10:24:14 1025

原创 Bert原理细节及训练理解

文章目录1. BERT的工作原理1.1 为什么需要BERT?1.2 BERT框架:预训练+微调1.3 模型细节2. 使用BERT进行文本分类2.1 预训练模型准备2.2 数据准备2.3 使用预训练的BERT模型进行训练2.4 使用BERT进行预测2.5 导出模型2.6 部署上线参考文档1. BERT的工作原理  BertBertBert名称解读:Bidirectionalidirectiona...

2020-04-04 10:03:38 3445 1

XGBoost从入门到精通使用.zip

XGBoost基础部分:如何准备数据,预测模型和可视化结果 高级部分:序列化训练的模型以供以后加载并使用它们进行预测,计算重要性分数并将其用于特征选择等。 微调部分:如何进行调参等。

2020-04-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除