自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 论文阅读记录 Attention Is All You Need——Transformer

Transformer is the first transduction model relying entirely on self-attention to compute representations of its input and output without using sequencealigned RNNs or convolution.transformer是首个完全依赖于注意力机制模型,能有效实现数据的并行处理。

2024-04-12 17:05:46 574

原创 神经网络与深度学习课程总结(二)——卷积神经网络

这16个卷积核分别是下图中的3,4,6通道的卷积核,输出图像的大小为10*10*16.训练的参数有6*[5*5*3+1]+9*[5*5*4+1]+1*[5*5*6+1]=1516;第二层S2:池化层2*2步长2,下采样,输入28*28*6输出为14*14*6;14*14*6*(2*2+1)=5880个连接。第四层S4:同S2操作,池化层2*2步长2,输入为10*10*16,输出为(10-2+2)/2=5*5*16,参数为16*2=32个,连接为5*5*16*(2*2+1)=2000。

2024-04-03 21:38:56 977

原创 神经网络与深度学习课程总结(一)

​。

2024-03-31 22:06:56 643

原创 个人论文阅读记录2

Fb()是权重分配网络用于给Fa(Fa()是卷积网络,跟着的小波变换用于将高频噪声滤除),和Fc(小波卷积神经网络,对高频和低频即全频段特征提取)分配权重。A、B、C注意力模块的结构如下图:参考SE,squeeze-and-excitation networks,即将特征图拉直为1x1xC(C为通道数)特征向量再对每个通道分配权重(文章选择用的为可变形的卷积网络(deformable convolution),这里采用了三种不同大小的卷积核,每一个卷积后面使用不同的注意力模块A、B、C.

2024-03-26 16:48:08 572

原创 个人论文阅读记录

论文将意图识别定义为轨道识别问题,根据论文中设定的情景,即考察单个参考航天器S和非合作的非合作体G在无外界控制指令期间(文中描述为两次脉冲控制的间隔内,且S,G均没有轨道机动),仅在轨道动力学作用下的相对位置关系;论文中总结了10种G相对S的运动构型,数据集由随机参数设定的这10种轨道构型的数据组成,最终的意图识别模型即实现10种构型的聚类(应该不是文中的classification,而是clustering,没有看到标签化处理数据,不过确实应该是无监督学习)。这里不太理解,为什么文中提及的方法可以。

2024-03-20 22:18:32 488

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除