- 博客(3)
- 收藏
- 关注
原创 datawhale决策树算法梳理
构造树的基本想法是随着树深度的增加,节点的熵迅速地降低。熵降低的速度越快越好,这样有望得到一颗高度最矮的决策树。1. 信息论基础 熵熵指内部的混乱程度,种类越多,熵越大,分类效果不好。 联合熵联合符号集合XY上的联合自信息量的数学期望 条件熵在联合符号集合XY上的条件自信息量的数学期望 信息增益举个例子,对一个事件进行分类,分别计算分类前、分类后的熵,然后前面的减去后面得...
2019-03-04 22:13:51 156
转载 datawhale逻辑回归
1、逻辑回归与线性回归的联系与区别逻辑回归与线性回归都属于广义线性回归模型。逻辑回归是一种线性分类器。逻辑回归:y=sigmoid(w’x)线性回归:y=w’x,也就是逻辑回归比线性回归多了一个sigmoid函数,sigmoid(x)=1/(1+exp(-x)),其实就是对x进行归一化操作,使得sigmoid(x)位于0~1。(1)逻辑回归通常用于二分类模型,目标函数是二类交叉熵,y的值...
2019-03-02 17:34:16 96
原创 DATAWHALE线性回归梳理
(1)有监督和无监督学习是机器学习的常用办法。有监督就是通过已有的一些数据输入和输出的关系,去得到一个模型(该模型相当于一个函数,将所有的输入映射为相应的输出,从而达到分类的目的);无监督:直接对数据进行建模,得到相似的一类,如聚类。那哪种情况下采用监督学习或无监督学习呢?我想最简单的一种方法就是根据定义来选择最合适的。 ...
2019-02-28 22:23:55 179
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人