- 博客(6)
- 问答 (1)
- 收藏
- 关注
原创 BERT初探——以情感分类为例(理论篇)
目录BERT初探——以情感分类为例(理论篇)初步了解BERTBERT的定义BERT 的模型结构BERT的输入表示BERT的训练方式遮蔽语言模型(masked language modeling)下一句预测(next sentence prediction)具体参数BERT的微调过程总结BERT初探——以情感分类为例(理论篇)在“BERT初探——以情感分类为例”系列文章中,你将学到:初步了解BERT (本文将涵盖该部分)BERT的定义BERT的遮蔽语言模型(masked language mod
2021-03-13 10:41:39 1666
翻译 机器翻译与编码-解码模型 Machine Translation and Encoder-Decoder Models
本章节将介绍机器翻译 (machine translation MT)。标准的机器翻译算法是编码-解码(Encoder-Decoder)网络,也叫序列到序列(sequence to sequence)网络,其可以由RNN或者Transformer结构来实现。
2021-03-08 02:04:08 1451
翻译 向量语义与静态词嵌入——从tf-idf到GloVe
本文基于《Speech and Language Processing (3rd)》-- Chapter6 - Vector Semantics and Embeddings,并结合多篇论文和优秀的博客整理得到。如有侵权,请联系删除。如需转载,请私信本人或在文章下方评论。Chapter6 向量语义与嵌入 (Vector Semantics and Embeddings)分布假说(distributional hypothesis):在相似的语境中出现的单词往往有相似的意思。单词如何分布的相似性.
2021-03-05 05:53:06 886 2
翻译 序列处理的深度学习框架——从RNN到Transformer
Chapter9 序列处理的深度学习框架本读书笔记摘取自斯坦福大学的《Speech and Language Processing (3rd)》Chapter9 - Deep Learning Architectures for Sequence Processing。出版时间:第三版暂未出版本博客是根据原书进行翻译整理得出,如有侵权,请联系删除。如需转载,请私信本人或在文章下方评论。原文链接:https://web.stanford.edu/~jurafsky/slp3/9.pdf9.1 回
2021-03-03 10:40:46 1223
原创 【Stanford CS230】Lecture8: 阅读文献与职业规划
目录阅读文献与职业规划阅读文献职业规划阅读文献与职业规划本篇文章是对 Stanford CS230: Deep Learning | Lecture 8 的总结。本次Lecture介绍了如何阅读paper以及在职业选择上的一些建议。在下面的笔记中,我也加入了自己的一些想法,仅供参考。阅读文献将需要阅读的内容列一个表格,包括:papers (arXiv), blog, medium (当然也包括知乎专栏,简书,CSDN中的优秀博文)。每一个表格只包括一个单独的研究方向,比如data2text,sen
2021-02-24 03:35:00 106
原创 Anaconda 安装问题
在昨天写了第一篇博客之后,今天我从单位的电脑上安装了Anaconda,遇到了我两年来没遇到的问题……在电脑上我之前安装过webstorm,也安装过python并配置了环境变量,不知道是否是这个原因,我安装anaconda之后,开始菜单栏并没有anaconda文件,只有anaconda prompt。真的是奇葩……于是,翻遍了网上的解决方案,其中看起来比较靠谱的有https://www.zhihu....
2018-05-18 11:41:33 715
空空如也
win10无法正常打开anaconda
2017-06-28
TA创建的收藏夹 TA关注的收藏夹
TA关注的人