自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 Lasso回归系列四:Group Lasso,Sparse Group Lasso

Lasso变体:Group Lasso,Sparse Group Lasso

2022-11-24 11:46:11 3876

原创 Lasso回归系列一:用LASSO回归做特征筛选踩坑记

用LASSO回归做特征筛选什么时候用,怎么用

2022-11-24 11:43:55 5373 2

原创 Lasso回归系列二:Lasso回归/岭回归的原理

Lasso回归/岭回归的原理

2022-11-24 11:22:38 9154

原创 Lasso回归系列三:机器学习中的L0, L1, L2, L2,1范数

机器学习中的L0, L1, L2, L2,1范数

2022-11-24 10:56:38 740

原创 Mac labelme安装及运行时崩溃bug解决

labelme安装-Mac

2022-10-27 20:53:52 4022 2

原创 对比学习系列论文

对比学习系列论文——Supervised Contrastive Learning和它的周边

2022-06-05 22:31:44 578

原创 DenseNet和ResNet的区别有哪些

DenseNet和ResNet的区别有哪些ResNetDenseNet1贡献提出残差学习来解决网络加深出现的退化问题提出稠密shortcuts来缓解梯度消失问题,加强特征传播,实现特征重用,大大减少了参数量2当前层的输入不同∑i=0lXi\sum_{i=0}^{l}{X_i}∑i=0l​Xi​(前面所有层输输出相加)Concate(X0,X1,...,Xl)Concate(X_0,X_1,...,X_l)Concate(X0​,X1​,...,Xl​)(通道维度相

2022-05-17 22:43:35 1184

原创 Batch Normalization的原理和作用

Batch Normalization的原理和作用论文链接:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift(Machine Learning 2015)BN是什么在神经网络中,每一层的输出是下一层的输入,神经网络通过反向传播调整参数。但是我们知道在反向传播的过程中,每一层的参数根据前一层参数变化前的输出进行参数的调整,区别于SVM这些有固定输入的模型,这就导致神经网

2022-05-04 22:10:35 2245

翻译 mixup

数据增强之mixup

2022-04-20 22:40:28 820 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除