自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 问答 (5)
  • 收藏
  • 关注

原创 R-Net笔记

1、模型架构图  模型包括四个部分:(1)RNN encoder      用于分别构建question和passage的表示(2)Gated Matching Layer  用来匹配段落和问题(3)Self-Matching Layer   用于从整个passage汇总信息(4)Prediction Layer    用于预测答案边界2、模型具体架构2.1、Question an...

2019-10-20 20:26:35 212

原创 KTNet笔记

1、KTNet架构图  KTNet利用知识库(Knowledge bases,KB)中的附加知识来改进预训练的LM。模型的目的是充分利用深层次的LM所覆盖的的语言规则和KB所产生的高质量知识来实现更好的机器阅读理解。  作者使用了两个KB:(1)WordNet,用于记录单词之间的词汇关系。(2)NELL,存储关于实体的依赖。通过这样的KB embedding,我们可以:(1)整合不仅与阅读文...

2019-10-19 20:51:42 996

原创 SLQA笔记

1、模型架构图上面的架构图显示了分层注意力融合网络的总体架构,它主要由以下三部分构成:(1)具有浅语义融合的co-attention layer(2)具有深语义融合的self-attention layer(3)memorywise bilinear alignment function上述提出的这个模型具有以下两个鲜明的特征:(1)通过一种细粒度的融合方法来融合attention ...

2019-10-16 17:56:08 604

原创 《QANET: COMBINING LOCAL CONVOLUTION WITH GLOBAL SELF-ATTENTION FOR READING COMPREHENSION》笔记

1、QANet 综述与架构图  QANet的编码器由CNN和Self-Attention组成,其中CNN模拟局部交互,sef-attention可以学习每对词之间的全局交互。附加的context-query attention是为了构建context中每个位置的query-aware context向量。2、QANet的具体架构  给定一个具有n个单词的上下文段落C = {c1,c2,……,...

2019-09-01 12:10:28 267

原创 J-NET《Exploring Question Understanding and Adaptation in Neural-Network-Based Question Answering》笔记

1、整体架构图A leve view of ur basic model.2、具体架构  由上述架构图可知,这个基线模型是由word embedding,input encoder,alignment,aggregation,prediction这几个组件组成的。以下讨论每一个组件。2.1 Word embedding  我们使用字符嵌入和词嵌入连接来表示一个单词。字符嵌入是将单词的所有...

2019-08-28 21:01:12 253

原创 《Ruminating Reader: Reasoning with Gated Multi-Hop Attention》笔记

1、Ruminating Reader和BiDAF的区别  Ruminating Reader作为BiDAF的扩展,使用了第二遍阅读和推理的结构,使其学会了避免错误,并且保证在选择答案时可以有效地使用上下文。通过增加额外的读取使模型更好地整合问题和答案中的信息并更好地权衡可能的答案。以下为BiDAF和Ruminating Reader结构图对比。The high-level structur...

2019-08-27 18:09:13 486

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除