- 博客(2)
- 收藏
- 关注
转载 AdaBoost集成学习算法【转载】
一、集成方法(Ensemble Method) 集成方法主要包括Bagging和Boosting两种方法,随机森林算法是基于Bagging思想的机器学习算法,在Bagging方法中,主要通过对训练数据集进行随机采样,以重新组合成不同的数据集,利用弱学习算法对不同的新数据集进行学习,得到一系列的预测结果,对这些预测结果做平均或者投票做出最终的预测。AdaBoost算法和GBDT(Gradi
2017-12-02 21:59:35 375
转载 交叉熵代价函数
引用自:https://www.2cto.com/net/201706/652203.html,只是为了学习记录机器学习--神经网络算法系列--交叉熵(Cross_entropy),交叉熵代价函数(Cross-entropy cost function)是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式。与二次代价函数相比,它能更有效地促进ANN的训练。在介绍交叉熵代价函数之前,本文先
2017-11-19 16:29:21 224
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人