- 博客(3)
- 资源 (1)
- 收藏
- 关注
原创 神经网络进一步优化
学习率设置学习率过大会导致,参数在极优值两侧来回移动。学习率过小,会导致优化速度大大降低。常用指数衰减法设置学习率指数衰减法实现以下功能:decayed_learning_rate = learning_rate * decay_rate^(global_step/decay_steps)decayed_learning_rate是每一轮优化时候使用的学习率,learning_ra...
2018-10-23 14:36:28 183 1
原创 神经网络优化(一)
使用反向传播算法和梯度下降算法调整神经网络中参数的取值。1.神经网络优化过程神经网络的优化过程分为两个阶段1.1第一阶段:先通过前向传播算法计算得到预测值,并将预测值和真实值做对比得出两者之间的差距。1.2第二阶段:通过反向传播算法计算损失函数对每一个参数的梯度,再根据梯度和学习率使用梯度下降算法更新每一个参数。2.梯度下降算法2.1.梯度下降算法主要用于优化单个参数的取值,...
2018-10-23 14:34:36 206
原创 自然语言处理---结巴分词
结巴分词jieba结巴分词三种模式 精确模式: 试图将句子最精确切开 全模式: 所有可以成词的语句都扫描出来,速度快,不能解决歧义 搜索引擎模式:在精确模式的基础上对长词再次划分,提高召回率jieba分词的三种模式的对比1import jiebatext='中文分词是文本处理不可或缺的一步!'text_list = jieba.cut(text,cut_all=...
2018-08-10 19:57:09 399
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人