自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(30)
  • 收藏
  • 关注

原创 【论文阅读】——Spons & Shields: Practical Isolation for Trusted Execution

对于云中部署安全敏感的应用来说,TEE提供了一个lift and shift的部署方式。TEE OS必须支持很多lib,TCB较大。将应用进行细粒度划分,可以提高安全性。在同一个TEE中运行所有的组件,并且内部不做任何多余的保护处理,缺乏足够的共享内存(感觉是因为TEE内存大小原因)使用不同TEE运行不同的进程,性能和兼容性较差,并且多个组件间的通信要使用加密解密等操作本文提供了Spons&Shields两个新的抽象概念?,在TEE中统一了进程、lib、usr/kernel隔离,并且支持内存共享。...

2022-08-29 10:18:23 1288 1

原创 【Coding】——SGXSDK_SampleEncalve

TrustedLibraryThread.cpp文件为调用Encalve中一些ECALL的接口函数,调用该函数即可调用对应的ECALL,global_eid在App.h中设置为全局变量,在这里添加上该头文件即可使用该变量EnclaveTrustedLibrary供外部调用的ECALL函数的实现,要实现线程功能,需要在edl中引入一些函数,在开发文档中有相应描述edl文件中引入对应的可信sgx接口函数Include用户自定义的类型,在这里进行包含,直接在enclave.edl中进行引入即

2022-06-01 20:06:34 280

原创 【论文阅读】——secureTF: A Secure TensorFlow Framework

secureTF: A Secure TensorFlow Framework作者:Do Le Quoc, Franz Gregor, Sergei Arnautov,Roland Kunkel,Pramod Bhatotia,Christof Fetzer来源:Middleware有状态应用:A stateful app is a program that saves client data from the activities of one session for use in the next

2022-04-10 22:04:33 4276

原创 【论文阅读】——BASTION-SGX: Bluetooth and Architectural Support for Trusted I/O on SGX

算是正式读的第一篇可信计算?的论文感觉本文在SGX中的应用并没有很多,更多的是在APP与Controller之间信息传输的保护工作更多,引入可信硬件(蓝牙)和固件(HCI)来实现可信路径,本质是需要一个特定协议的硬件,而非一个针对任意外设的框架SGX不仅用于云端,也适用于IoT?感觉行文逻辑有点乱BASTION-SGX: Bluetooth and Architectural Support for Trusted I/O on SGX

2022-04-09 20:08:02 4690

原创 【论文阅读】VIT——AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE

AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE本文的工作非常简单,架构也是很Simple的,利用Transformer中的Encoder来做图像工作,将图像分成N个PXP的patch,拉长之后通过Linear将所得序列pad到固定长度,之后添加相应的position encoding ,并在这些patch序列之前添加一个pos为0的信息,当做最后的分类向

2022-03-14 12:01:12 1790 1

原创 【论文阅读】Transformer——Attention Is All You Need

文章目录论文阅读模型架构代码合集utils.pymodel.pytrain.pytest.py论文阅读因为本人算是半个CV人,没有NLP的基础,这篇文章和代码也只是浅尝辄止,下载了大佬的代码跑了跑,看了看model中文件就结束了,有错误希望指出感谢知乎上的一个大神知乎大神代码链接Attention Is All You Need原文地址文章提出了一个简单的架构Transformer,没有使用RNN和卷积,只是使用了注意力机制,可以并行计算,训练时间很短。model architecture:

2022-03-09 19:54:22 318

原创 【论文阅读】EfficientNet——EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

文章目录论文阅读MBConv结构代码实现modeltrainpredict实验结果论文阅读感谢p导EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks本文主要工作是提出了一个在三个维度上(图像分辨率R、网络深度D、channel的宽度W)的合理scale方法。在之前的一些论文中,基本都是通过改变上述3个参数中的一个来提升网络的性能。通过增加网络深度,例如block的堆叠;增加网络宽度,增加每层feature

2022-03-06 19:51:05 1092

原创 关于Class继承nn.Module和nn.Sequential的区别

不是很清楚这两个有什么区别,最近写shufflenet时候试着写了一下发现三种写法,都是可以正常运行的,在Sequential中他写了相应的forward函数,我们如果不需要重写的话,就可以只写相应的层,不去重写对应的forward函数,感觉这可能是他的一个区别?下面的三种写法class conv3x3(nn.Sequential): def __init__(self, in_channel, stride, bias=False): super(conv3x3, self)

2022-03-06 09:38:03 1091 3

原创 【论文阅读】ShuffleNet——ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices

ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices文章中提出了一个非常有效的Architecture——ShuffleNet,主要使用两种操作,分组PW卷积和通道重排,在保证准确率的情况下降低了计算代价之前提出的模型,Xception和ResNeXt因为其中大量的Pw操作使得计算代价挺高,无法实现小型模型

2022-03-04 17:23:07 3686 2

原创 【论文阅读】MobileNet V2——MobileNetV2: Inverted Residuals and Linear Bottlenecks

文章目录论文阅读代码实现modeltrainpredict实验结果论文阅读感谢p导论文链接:MobileNetV2: Inverted Residuals and Linear Bottlenecks主要亮点是提出了带线性瓶颈层的倒残差结构回顾MobileNet V1,主要是将普通Conv转换为dw和pw,但是在dw中训练出来可能会很多0,也就是depthwise部分得到卷积核会废掉,即卷积核参数大部分为0,因为权重数量可能过少,再加上Relu激活函数的原因V2为了解决这方面的问题,提出去掉在低

2022-02-18 18:01:58 2013

原创 【论文阅读】MobileNet ——MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications

文章目录论文阅读代码实现modeltrainpredict实验结果论文阅读感谢p导论文链接:MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications主要亮点有两个:1、Depthwise separable convlution(a depthwise convolution and a 1*1 convolution) replace standard convolution2、添加了两个

2022-01-30 13:29:23 2982

原创 【论文阅读】ResNeXt——Aggregated Residual Transformations for Deep Neural Networks

文章目录论文阅读代码实现modeltrainpredict实验结果论文阅读感谢p导Aggregated Residual Transformations for Deep Neural Networks依旧是何凯明大神的论文,只不过这个里面何凯明大神是2作创新点目测只有一个:就是更新了ResNet中的bottleneck的残差块,将残差网络与分组卷积相结合一种高度模块化的网络结构,提出来一个新的维度,叫做cardinality,也就是卷积的分组个数。使用的是VGG中的策略。split-tr

2022-01-29 17:40:40 1223

原创 【论文阅读】ResNet——Deep Residual Learning for Image Recognition

文章目录论文阅读模型图示代码实现modeltrainpredictbatch_predict实验结果论文阅读感谢p导有错误希望可以指正论文中提出了残差思想、两种残差块随着AlexNet出现之后,大家都开始来堆叠网络VGG得到的结果表明深度会提高准确率之后在加深过程中碰到了一系列问题,梯度消失和梯度爆炸,GoogLeNet中为了解决这个问题导致的浅层部分训练不到添加了两个辅助分类器来计算loss,可以使用BN来进行解决。另外一个问题就是退化,这个问题不是由过拟合导致的,因为在训练集和测

2022-01-14 13:33:52 1650

原创 【改bug】——OSError: [WinError 1455] 页面文件太小,无法完成操作。………………

今天在跑之前的代码时候出了一个bugOSError: [WinError 1455] 页面文件太小,无法完成操作。 Error loading “D:\Python\lib\site-packages\torch\lib\caffe2_detectron_ops_gpu.dll” or one of its dependencies.之前我没有设置num_workers这个参数,这次设置了num_workers=8之后就报错了搜了一下,windows设置num_workers确实可能会报错改回去

2022-01-14 13:30:44 688

原创 【论文阅读】GoogLeNet——Going Deeper with Convolutions

文章目录论文阅读模型图示代码实现modeltrainpredict实验结果![在这里插入图片描述](https://img-blog.csdnimg.cn/2fa87efd8d7c4987968071b9e869db49.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5q-P5Liq5Lq66YO95piv5a2Z56yR5bed,size_14,color_FFFFFF,t_70,g_se,x_16

2022-01-12 10:21:05 1869 1

原创 【论文阅读】VGG——VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION

这个论文section2就讲Alexnet的LRN没有用,果然喷前任的论文才是最好的点子1、使用3* 3卷积来模拟7* 7和5* 5卷积2、对于ALexnet中使用的数据增强方法这里有了改进,关于不同大小目标的随机裁剪原图像大小进行了调整,针对原图像大小随机尺度的训练,进行了预置S=384模型图示D、E对应的是VGG16、19下面的图源网络,侵权删代码实现model.py这里把全连接层改成2048了,原论文是4096,

2021-11-27 21:44:29 1906

原创 【改bug】——RuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`

今天在跑vgg的时候碰到了这个bug,因为之前的模型都没有碰到这个bug,也一时无了头绪,就去网上找解决办法这个老哥碰到的是分类数目与模型最后输出的数目不同这个问题不是我的问题,下一个这个老哥碰到的是有一个地方没有添加to(device)这个问题不是我的问题,下一个然后的解决办法就大多一样了,一直没有解决求助万能的群友去了去看了看,发现自己cuda是11.0版本,安装的torch是11.1cuda版本之后去找了找老版本torch下载地址安装,搞定(因为我这个电脑显卡比较垃圾,

2021-11-25 20:57:13 5686

原创 【论文阅读】AlexNet——ImageNet Classification with Deep Convolutional Neural Networks

non-saturating neurons——非饱和神经元,也就是神经元对应的激活函数不会将结果压缩到特定值saturating neurons = 被挤压(到一个特定的区间)过的值nn.ReLU(inplace=True)其中inplace代表是否进行覆盖操作,降低内存使用量...

2021-11-20 21:50:58 2259

原创 【论文阅读】Lenet

使用的数据集为CIFAR10Lenet很简单,就没去看论文模型图示代码实现model.pyfrom torch import nnimport torch.nn.functional as F class LeNet(nn.Module): def __init__(self): super(LeNet,self).__init__() self.conv1=nn.Conv2d(in_channels=3,out_c

2021-11-19 20:04:50 703

原创 pytorch学习笔记

文章目录datasetdataloaderTensorboardTransform神经网络的骨架常用函数Conv2dpoolnn.Relunn.Sigmoidnn.Linearflattendropoutnn.BatchNorm2d损失函数、反向传播、优化器模型的保存和加载使用GPu训练哔哩哔哩小土堆视频datasetfrom torch.utils.data import Datasetclass MyData(Dataset):#这个类继承Dataset,在init中可以做获取数据的操作,必须

2021-11-18 21:11:44 1370

原创 吴恩达深度学习L2W1——神经网络权重初始化方法、正则化

文章目录神经网络的初始化初始化数据模型搭建简单函数零初始化——initialize_parameters_zeros随机初始化——initialize_parameters_randomHe初始化三种初始化结果对比在神经网络中使用正则化导入数据模型搭建非正则化模型L2正则化dropout三种模型的对比神经网络的初始化主要是看权重的不同初始化方法的影响导包import numpy as npimport matplotlib.pyplot as pltimport sklearnimport s

2021-10-15 11:37:29 927 4

原创 吴恩达深度学习L1W4——实现具有2层和L层的分类神经网络

文章目录一些笔记写作业导入常用的包,构建简单函数构建一个用于图像分类的深度神经网络一些笔记写作业导入常用的包,构建简单函数import numpy as npimport h5pyimport matplotlib.pyplot as pltfrom dnn_app_utils_v2 import *%matplotlib inline%load_ext autoreload%autoreload 2np.random.seed(1)plt.rcParams['figure.

2021-10-12 18:06:57 813 4

原创 吴恩达深度学习L1W3——实现具有单个隐藏层的分类神经网络

文章目录一些笔记写作业获取数据测试逻辑回归能否实现该分类使用的神经网络模型定义神经网络结构初始化模型参数循环梯度下降将上述函数集成到model中通过上述模型来预测结果调整隐藏层的大小看结果aaa实现具有单个隐藏层的2分类神经网络使用具有非线性激活函数的神经元,例如tanh一些笔记写作业导入常用的包和老师提供的工具集import numpy as npimport sklearnimport matplotlib.pyplot as pltfrom planar_utils import

2021-10-10 21:43:39 492

原创 吴恩达深度学习L1W2——实现简单逻辑回归

文章目录一些笔记写作业导入数据取出训练集、测试集处理数据的维度标准化数据sigmoid 函数初始化参数w、b前向传播、代价函数、梯度下降优化预测函数模型整合使用模型绘制代价曲线单个样本测试不同alpha的比较预测新图根据笔记中的公式进行构造函数,之后使用模型进行预测一些笔记写作业导入数据import h5pyimport numpy as np# 训练集、测试集train_data = h5py.File('./train_catvnoncat.h5', "r")test_data

2021-10-09 11:56:30 396 1

原创 吴恩达机器学习ex2

文章目录逻辑回归-线性可分基础知识实验要求数据可视化构造数据集构造损失函数梯度下降函数准确率绘制决策边界逻辑回归-线性不可分知识点案例介绍数据可视化特征映射构造数据集正则化损失函数梯度下降函数准确率数据可视化逻辑回归-线性可分基础知识线性可分指的是多变量的情况下,可以用直线将两种类别进行划分这样我们可以对该模型的函数做出如下假设,由于该分类需要将结果分为0和1,如果还是与上次实验一样使用h=theta@X的话,结果的取值会有不落在0-1之中的。所以添加了一个激活函数sigmoid函数,将theta

2021-09-24 10:40:06 228

原创 吴恩达机器学习ex1

吴恩达机器学习ex11 单变量线性回归1.1 数据准备1.2损失函数的定义1.3 梯度下降函数1.4 可视化损失函数1.5 拟合函数可视化2 多变量线性回归2.1 读取文件2.2 特征归一化2.3 构造数据集2.4 损失函数的定义2.5 梯度下降函数2.6 不同alpha下的效果3 正规方程#导入常用的库import numpy as npimport pandas as pdimport matplotlib.pyplot as plt1 单变量线性回归整个1的部分需要根据城市人口数量,预测

2021-09-23 10:48:09 463

原创 LeetCode-1

两数之和给定一个整数数组 nums 和一个整数目标值 target,请你在该数组中找出 和为目标值 的那 两个 整数,并返回它们的数组下标。你可以假设每种输入只会对应一个答案。但是,数组中同一个元素在答案里不能重复出现。你可以按任意顺序返回答案。我的题解:两层循环遍历寻找对应答案,找到之后返回class Solution {public: vector<int> twoSum(vector<int>& nums, int target) { .

2021-04-14 19:18:44 113 1

原创 手把手教你挂载

文章目录挂载是什么,我们为什么要挂载一步步演示挂载演示环境一些知识点挂载步骤Parted命令挂载挂载是什么,我们为什么要挂载在我看来,Linux下的硬盘挂载,相当于是windows的分配盘符。Linux下一切皆文件,所以,硬件在Linux下也是文件。一般的设备目录为/dev在Windows下不分配盘符,你的硬盘无法使用。同理,Linux下你需要把硬盘挂载到挂载点上才能使用挂载点就是我们为...

2020-03-23 11:33:32 3246 2

转载 error RC2108: expected numerical dialog constant

文章目录出现的问题解决方法出现的问题最近在进行MFC编程的时候出现了两个问题环境是VS20131、error MSB6006: “rc.exe”已退出,代码为 1。2、error RC2108: expected numerical dialog constant解决方法对于第一个问题来说,是将目录改成英文就好了第二个问题是参考了这个链接.主要就是修改项目对应的rc文件将这一行...

2020-03-19 13:23:04 645

原创 消息队列通信实验报告总结

实验目的1、了解什么是消息、消息队列 2、掌握消息传送的机理msgget作用:创建消息队列原型:int msgget(key_t key, int msgflag)参数:key:键值 IPC_PRIVATEmsgflag:权限返回值:成功:消息队列ID出错:-1头文件: #include <sys/types.h>#include <sys/ipc.h&g...

2019-11-13 18:45:41 2091 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除