自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

原创 pytorch :LSTM二分类网络

2、选择损失函数、优化函数。1、创建一个lstm网络。

2024-04-16 16:06:49 88 1

原创 c++ 结构体

若初始化结构体时不传入参数会出现错误,在建立结构体数组,只写带参数的构造将会出现数组无法初始化的错误。

2023-12-07 14:52:56 353

原创 学习---------

成功上岸阿里,深度学习知识考点总结_resnet50和resnet101区别-CSDN博客

2023-11-14 18:50:53 42

原创 深度学习——循环神经网络(RNN,LSTM)

卷积神经网络的卷积核在整个特征图上滑动处理,不断进行特征数计算,因此一个特征图共享一个卷积核,不像全连接神经网络,每个输入都有自己的权重,这样会让计算机的计算量大大的提升,也容易导致网络模型过拟合,从而模型的泛化能力不强。循环神经网络模型中的权重W,U,V是一样的,意味着这些权重在每个时刻是共享的,这样循环神经网络的参数要少很多,因此神经网络的参数更新的计算量要少很多,大大减少计算机的计算量。由于误差对参数的导数是累加的,所以比较近的梯度是一致存在的,占主导地位,模型就无法建立远距离的依赖性。

2023-11-14 17:45:58 121

原创 深度学习——卷积神经网络

减少参数量的同时,还保留了原图像的原始特征、降低过拟合、卷积网络的平移不变性。卷积核:提取输入数据的特征。

2023-11-13 17:39:01 48

原创 深度学习——全连接神经网络

1、首先根据链式求导获得离误差最近的参数 w21 w22 b2。Tanh函数:(e^z - e^-z)/ e^z + e^-z。2、再计算距离误差较远的参数 w11 w12 b1。优点:解决了sigmoid输出值非0 对称。输入层 --> 隐藏层 --> 输出层。优点:解决 了ReLU的神经元死亡问题。缺点:反向传播容易造成梯度消失。缺点:正负输入的预测关系不一致。缺点:反向传播造成梯度消失。优点:解决了梯度消失问题。缺点:可能出现神经元死亡。Leaky ReLU函数。

2023-11-13 17:01:00 58

原创 深度学习——逻辑回归

逻辑回归是用来解决二分类问题:逻辑回归是用回归的方法解决分类问题,逻辑回归的输出是0-1,之间的连续,人为设定一个阈值使输出的值映射为一个类别。加法运算比乘法运算简单,所以对损失函数两边进行log,使乘法运算变为加法,同时将求最大转化为求最小,再对损失函数求梯度,进行对参数的更新。根据w,b使得样本预测全部正确的概率最大,所以将所有样本预测正确的概率相乘得到的数值是最大的,即逻辑回归的损失函数。J(w,b)​=−1/ m*l(w,b)----------------------------交叉熵损失函数。

2023-11-13 14:26:34 31

原创 深度学习——线性回归和梯度下降

怎样学习:就是希望模型输出的结果与真实结果无限逼近,就是确定一个w使得输出结果和真实的结果差值越小越好,最好为0。在利用梯度下降法求解的时候,梯度更新的步伐不能太大 ,也不能太小,一般常用的为0.01或者0.001。损失函数为可微的,可微函数中的微分就是这个函数的梯度,而。有什么方法可以获得最优的w呢,显然是有的梯度下降法。晚上下山法,找到一个最陡峭的方向一步一步逐渐下山。:就是要学习一个最优的w来表示输入和输出的关系。这样使得均方误差最小的w就是最优的w。,梯度的方向就是函数上升最快的方向,

2023-11-10 16:35:08 24

原创 pytorch学习

主页 - PyTorch中文文档torch — PyTorch 2.1 documentationPytorch入门+实战系列二:Pytorch基础理论和简单的神经网络实现-CSDN博客

2023-10-11 18:51:33 27

原创 4、pytorch 模型创建(Module)

【代码】pytorch (4) 模型创建(Module)

2023-10-10 19:04:59 43

原创 YOLO系列——yolov3

yolov3主要针对小目标检测不足做出的改进。

2023-09-18 19:10:23 80

原创 YOLO系列——yolov2

检测模型 = 特征提取器+检测头。

2023-09-14 17:44:06 96

原创 统计学习方法(一)

结构化风险=经验风险+正则项(表示模型复杂度)

2023-09-07 21:35:28 34

原创 c++ inline函数

一般写在头文件,使用使直接调用头文件。用inline修饰的函数叫做内联函数。

2023-09-01 18:55:27 29

原创 c++生成动态库

2、c++创建动态库项目。1、c++创建两个项目。

2023-09-01 16:35:13 125

原创 二分查找的示例

【代码】二分查找的示例。

2023-08-31 13:49:14 29

原创 c++指针和引用的区别

3、引用自初始化一个实体之后,不能在引用其他实体,因为本质是常量指针,无法改变指向。指针可以在任何时候指向任何一个同类型实体。大小为(32位,4个字节,64位,占8个字节),5、访问实体方式不同,

2023-08-29 15:35:46 20

原创 c++ 编译的四个过程

目标文件不能直接而执行,,因为某个.cpp文件调用另外一个.cpp文件,为了解决这类问题,调用目标文件与被调用的目标文件连接起来,最终得到可执行程序exe。链接一般分为静态链接和动态链接。将汇编代码解释为二进制的cpu指令,生成以o为结尾的可重定向目标文件;检查语法错误,若没有错误将代码解释为汇编,生成以s为结尾的汇编文件;引入头文件、宏替换、删除注释,生成以i为结尾的。

2023-08-25 14:21:45 875

原创 c++位运算符

计算机中,运算是使用的二进制补码,正数的补码是它本身,负数的补码,符号位不变,其余按位取反,最后再加1。15 :原码——00001111 补码——00001111。-15:原码——10001111 补码——11110001。根据交换律:b =b^(a^b)=b^b^a=0^a=a;

2023-08-25 14:10:05 203

原创 c++ define 和 const的区别

内存:在代码区,不分配内存,使用多少次就进行多少次的拷贝,消耗内存大。内存:在静态存储区分配空间,在程序过程中内存只拷贝一次。可以防止头文件重复引用。define:宏定义,在预编译阶段进行处理。const:在编译期间进行处理。

2023-08-23 15:35:48 41

原创 c++ extern volatile

修饰符extern用在变量或者函数的声明前,来说明该变量在其他地方被定义,要在此处引用。

2023-08-23 14:58:08 36

原创 c++中 const和static关键字

static:const:

2023-08-23 11:24:47 17

原创 c++ 中函数的指针参数传递和引用参数传递

被调函数的形式参数作为局部变量在栈中开辟了内存空间,存放的是由主函数传过来的实参变量的地址。被调函数对形参的任何操作都被处理为间接寻址,即通过占中存放的地址访问主调函数中实参变量,被调函数对形参的任何操作都会影响主调函数的实参变量。值传递的过程中,被调函数的形参作为被调函数的局部变量,在栈区开辟内存空间以存放由主调函数传递过来的实参值,从而形成一个实参的副本。引用传递和指针传递的相同点和不同点:都是在被调函数空间上一个局部变量,对于任何参数的处理都会通过一个间接寻址的方式操作到主调函数的相关变量。

2023-08-22 18:43:13 141

原创 c++常量指针 和 指针常量

常量指针:指向“常量”

2023-08-22 16:42:16 13

原创 c++ 中内存分配情况

由程序员管理,需要手动创建(new/malloc)和释放(delete []),若没有释放会造成内存泄漏,频繁的创建和释放会出现空闲碎片的情况,创建是由小到大。:由编译器创建和回收,存放局部变量和函数参数,创建是由大到小。分为初始化和未初始化的两个相邻区,存储全局变量或静态变量。存储常量(由const或#define定义的)。:存放程序的二进制代码。

2023-08-22 16:11:35 20

原创 股票交易最大利润

以第二个数作为交易的开始,求第二个数后的最大值作为交易结束,获得这次交易的最大利。将第一个数作为交易的开始,求剩下的最大值作为交易结束,获得本次交易最大利润;根据所有的交易利润,求得最大利润。股票只可进行一次交易,求最大利润。

2023-07-08 15:25:24 108 1

原创 排序算法(内排序)

学习记录

2023-06-25 16:19:21 34

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除