自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 海思入门笔记二:HiBurn工具实现镜像烧写

这里写自定义目录标题海思入门笔记:HiBurn工具实现镜像烧写第一步:裸板可使用串口先烧录boot(速度慢)第二步:已烧好boot的板子,可使用USB快速烧录海思入门笔记:HiBurn工具实现镜像烧写本笔记是以arm-himix100-linux 工具链,HI3518EV300为例的本地烧录,非网口烧录。继搭建完成海思的开发环境,并能实现sample的编译之后,我们需要将程序烧录到demo板...

2020-05-07 14:09:51 6673

原创 Datawhale零基础入门数据挖掘-Task4 建模调参笔记

Task4 建模调参一.常见模型1.1 线性回归模型参考博客:线性回归1.2 决策树模型参考博客:决策树模型1.3 GBDT模型参考博客:GBDT1.4 XGBoost模型参考博客:XGBoost模型1.5 LightGBM模型参考博客:LightGBM模型推荐教材:《机器学习》 《统计学习方法》 《Python大战机器学习》 《面向机器学习的特征工程》 《数据科...

2020-04-01 22:13:58 421 1

原创 Datawhale零基础入门数据挖掘-Task3 特征工程笔记

1. 特征工程特征工程是比赛中最至关重要的的一块,特别的传统的比赛,大家的模型可能都差不多,调参带来的效果增幅是非常有限的,但特征工程的好坏往往会决定了最终的排名和成绩。特征工程的主要目的还是在于将数据转换为能更好地表示潜在问题的特征,从而提高机器学习的性能。比如,异常值处理是为了去除噪声,填补缺失值可以加入先验知识等。特征构造也属于特征工程的一部分,其目的是为了增强数据的表达。有些比赛的...

2020-03-28 21:53:01 197

原创 Datawhale零基础入门数据挖掘-Task2数据分析笔记

<Datawhale 零基础入门数据挖掘-Task2 数据分析 > - 笔记脑图:2.1 EDA目标EDA的价值主要在于熟悉数据集,了解数据集,对数据集进行验证来确定所获得数据集可以用于接下来的机器学习或者深度学习使用。当了解了数据集之后我们下一步就是要去了解变量间的相互关系以及变量与预测值之间的存在关系。引导数据科学从业者进行数据处理以及特征工程的步骤,使数据集的结构和特...

2020-03-24 21:59:39 289

原创 Task06 凸优化与深度学习

优化与深度学习1.优化与估计尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。优化方法目标:训练集损失函数值 深度学习目标:测试集损失函数值(泛化性)2.优化在深度学习中的挑战局部最小值 鞍点 梯度消失2.1局部最小值对于目标函数f(x),如果f(x)在x上的值比在x邻近的其他点更小,那么f(x)可能是一个局部...

2020-02-23 13:16:33 1003

原创 Task06 残差网络 ResNet

残差网络(ResNet)深度学习的问题:深度CNN网络达到一定深度后再一味地增加层数并不能带来进一步地分类性能提高,反而会招致网络收敛变得更慢,准确率也变得更差。恒等映射:左边:f(x)=x右边:f(x)-x=0 (易于捕捉恒等映射的细微波动)残差块的设计:class Residual(nn.Module): # 本类已保存在d2lzh_pytorch包中方便以后使用...

2020-02-21 14:27:28 159

原创 Task06 批量归一化

批量归一化批量归一化层,它能让较深的神经网络的训练变得更加容易。• 对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近• 批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。1.对全连接层做批量归一化全连接层的批量归一化...

2020-02-21 14:09:50 195

原创 Task03 循环神经网络进阶(pytorch代码实现)

循环神经网络进阶⻔控循环神经⽹络(GRU)当时间步数较⼤或者时间步较小时, 循环神经⽹络的梯度较容易出现衰减或爆炸。虽然裁剪梯度可以应对梯度爆炸,但⽆法解决梯度衰减的问题。通常由于这个原因,循环神经⽹络在实际中较难捕捉时间序列中时间步距离较⼤的依赖关系。⻔控循环神经⽹络(GRU):捕捉时间序列中时间步距离较⼤的依赖关系CNN:GRU:• 重置⻔有助于捕捉时间序列⾥短期的依赖关系;...

2020-02-18 11:58:11 540

原创 Task02 循环神经网络基础

循环神经网络本节介绍循环神经网络,下图展示了如何基于循环神经网络实现语言模型。•裁剪梯度循环神经网络中较容易出现梯度衰减或梯度爆炸,这会导致网络几乎无法训练。裁剪梯度(clip gradient)是一种应对梯度爆炸的方法。假设我们把所有模型参数的梯度拼接成一个向量 g ,并设裁剪的阈值是 θ 。裁剪后的梯度的 L2 范数不超过 θ 。•困惑度我们通常使用困惑度(perplexit...

2020-02-17 18:26:57 117

原创 Task03 梯度消失、梯度爆炸、Kaggle房价预测

梯度消失、梯度爆炸以及Kaggle房价预测深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为 L 的多层感知机的第 l 层 H(l) 的权重参数为 W(l) ,输出层 H(L) 的权重参数为 W(L) 。为了便于讨论,不考虑偏差参数,且设所有隐藏层的激活函数为恒等映射(identity m...

2020-02-17 16:07:26 184

原创 Task03 过拟合、欠拟合及其解决方案

1 模型选择、过拟合和欠拟合阅前小思考:在训练模型的时候,如果改变了实验中的模型结构和超参数的时候,会出现:当模型在训练数据集上更加准确时,它在测试数据集却不一定更加准确。这是为什么呢?1.1 训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者...

2020-02-17 15:48:05 182

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除