- 博客(4)
- 资源 (1)
- 收藏
- 关注
翻译 Learning representations by back-propagating errors【译文】
Learning representations by back-propagating errors通过反向传播错误学习表示反向传播算法最初是在1970年代引入的,但是直到1986年David Rumelhart,Geoffrey Hinton和Ronald Williams发表了著名论文【Learning representations by back-propagating errors Rumelhart et al., Nature, 1986】后,它的重要性才得到充分认识。这篇篇论文描述
2020-08-23 02:51:11 2694 1
原创 基于keras的诗词文本生成理解
文章目录文本生成使用语言模型逐字生成文字的过程基于keras的诗词生成基本流程:文本生成使用语言模型逐字生成文字的过程【1-输入:初始文本】======>======>======> 【语言模型】======>======>======> 【下一个字符的概率分布】======>======>======> 【采样策略:对下一个字符采样得到...
2020-04-04 10:37:23 408
原创 Seq2Seq模型细节理解
文章目录1. Seq2seq model1.1 什么是Seq2Seq模型1.2 应用领域范围1.3 工作原理1.4 Seq2Seq模型的局限1.5 改进Seq2Seq模型:引入Attention Mechanism2. 参考链接1. Seq2seq model1.1 什么是Seq2Seq模型 Seq2Seq模型是一种基于encoder-decoder的机器翻译方法。该方法将可变长度的输入序...
2020-04-04 10:24:14 1025
原创 Bert原理细节及训练理解
文章目录1. BERT的工作原理1.1 为什么需要BERT?1.2 BERT框架:预训练+微调1.3 模型细节2. 使用BERT进行文本分类2.1 预训练模型准备2.2 数据准备2.3 使用预训练的BERT模型进行训练2.4 使用BERT进行预测2.5 导出模型2.6 部署上线参考文档1. BERT的工作原理 BertBertBert名称解读:Bidirectionalidirectiona...
2020-04-04 10:03:38 3445 1
XGBoost从入门到精通使用.zip
2020-04-28
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人