自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 资源 (2)
  • 收藏
  • 关注

原创 CUDA学习笔记(一)

说明:  1.此乃本人学习CUDA过程中的笔记,如有错误,欢迎指出⁄(⁄ ⁄•⁄ω⁄•⁄ ⁄)⁄。  2.由于我是初学,对CUDA的理解不多,排版不佳,还请原谅。(哎,高中作文都写不利索)  3.每日一问:今天你买到显卡了吗[○・`Д´・ ○]?一.核函数  作用:实现主机(CPU)对设备(GPU)的调用  声明形式:__global__ void hello_from_gpu(){ printf("Hello World from the GPU!\n");}   注: 

2021-04-01 10:40:17 537

原创 PyTorch学习笔记(4)——detach、ones_like、meshgrid

1.detach()  作用:从当前网络分离出一个Tensor,值和原变量相同,但是不需要计算梯度。  注意:返回的Tensor和原变量共享内存。两者的原地修改均不可见,而且可能会触发正确性检查的错误。对返回的Tensor的修改不会引起原变量的修改,但会触发错误。  参考:PyTorch官方文档...

2021-03-30 19:43:54 351 1

原创 PyTorch学习笔记(2)——randn_like()、layout、memory_format

提醒自己要填的坑:  torch.memory_format  torch.preserve_format1.randn_like()torch.randn_like(input, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format) -> Tensor  返回一个和输入大小相同的张量,其由均值为0、方差为1的标准正态分布填充。即torch.ra

2021-03-18 10:25:08 16041

原创 PyTorch学习笔记(1)——permute、randint、DataLoader

说明:1.这是我在学习过程中的笔记,可能会有错误,欢迎各位读者指出错误(不要因为我是娇花而联系我(╹▽╹))2.提醒自己要填的坑:  torch.set_default_tensor_type()  torch.layout  torch.strided1.permute()意义:更改张量维度的排列import torchimport numpy as npa = np.array([[[0, 1, 2],[3, 4, 5]]])input =

2021-03-12 17:42:28 775

原创 PointNet++论文笔记

说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。论文题目:PointNet++: Deep Hierarchical Feature Learning on Point Sets in

2021-03-12 10:06:05 409 4

原创 PointNet论文笔记

说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。论文原题:PointNet: Deep Learning on Point Sets for 3D Classification and

2021-03-12 10:05:47 148

原创 深度学习的激活函数(包含绘图代码)

1.为什么使用激活函数?  提高神经网络的非线性表示能力。如果不使用非线性的激活函数,那么在神经网络中每一层的输出都是上一层输入的线性表示。那么即使不断增加网络的深度也还是线性映射,难以模拟实际模型的非线性情形。引入非线性的激活函数,使得神经网络可以逼近非线性模型。2.常用激活函数 (1)sigmoid函数  表达式:f(x)=sigmoid(x)=11+e−xf(x)=sigmoid(x)=\frac{1}{1+e^{-x}}f(x)=sigmoid(x)=1+e−x1​  函数图像如下: .

2021-03-12 10:05:10 815 1

原创 Pytorch之归一化层(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)

BN,LN,IN,GN从学术化上解释差异:BatchNorm:batch方向做归一化,算NHW的均值,对小batchsize效果不好;BN主要缺点是对batchsize的大小比较敏感,由于每次计算均值和方差是在一个batch上,所以如果batchsize太小,则计算的均值、方差不足以代表整个数据分布LayerNorm:channel方向做归一化,算CHW的均值,主要对RNN作用明显;InstanceNorm:一个channel内做归一化,算H*W的均值,用在风格化迁移;因为在图像风格化中,生成结果主要

2021-03-05 22:46:20 2222

原创 Deep shape-aware descriptor论文笔记

说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。 1.重要概念介绍   拉普拉斯-贝尔特拉米算子(Laplace-Beltrami operator,LBO):  

2021-03-02 22:48:25 446

原创 DeepSD论文笔记

说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。论文题目:3D Deep Shape Descriptor1.重要概念介绍   三维特征描述符(3D shape signat

2021-03-01 16:13:59 647

原创 PointCNN论文笔记

说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。待填的坑:[32]Hyeonwoo Noh, Seunghoon Hong, and Bohyung Han. Learning dec

2021-03-01 15:30:48 226

MeshNet_best_9192.pkl

训练好的模型

2021-04-22

ModelNet40_MeshNet.zip

ModelNet40_MeshNet.zip

2021-04-11

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除