自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 资源 (2)
  • 收藏
  • 关注

原创 深度学习-视频集合

作者:机器之心链接:https://www.zhihu.com/question/31785984/answer/204979840来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。Analytics Vidhya 网站曾发表过一篇文章,梳理了一些 2016 年关于深度学习的视频、教材和课程。分享出来,希望大家能从中受益。文章由机器之心编

2017-07-29 09:47:14 640

原创 基于numpy+pandas的单层神经网络

import numpy as npfrom data_prep import features, targets, features_test, targets_testdef sigmoid(x): return 1 / (1 + np.exp(-x))def sigmoid_prime(x): return sigmoid(x) * (1 - sigmoi

2017-07-27 21:53:01 650

原创 基于Numpy+Python2.7的线性回归

#The optimal values of m and b can be actually calculated with way less effort than doing a linear regression. #this is just to demonstrate gradient descentfrom numpy import *# y = mx + b#

2017-07-25 21:07:04 979

原创 《庄子》阅读感想-逍遥游

”野马也,尘埃也 ,生物之以息相吹也。任何发生的事情都是在很多人共同作用下发生的。  适莽苍者,三餐而反,腹犹果然;适百 里者,宿舂粮;适千里者,三月聚粮。想要走的够远,就应当做足够的准备。   斥鴳笑之曰:“彼且奚适也?我腾跃而上,不过数仞而下,翱翔蓬 蒿之间,此亦飞之至也,而彼且奚适也?”此小大之辩也。故夫知效一官,行比一乡,德合一君,而徵一国者,其自视也,亦

2017-07-25 15:57:29 1035

原创 仅用Numpy写的感知机(单层前馈神经网络)

单层前馈神经网络from numpy import *class NeuralNetwork(): def __init__(self): random.seed(1) self.synaptic_weights = 2 * random.random((3,1)) - 1 def __sigmoid(self, x):

2017-07-23 15:55:17 501

原创 python2与python3的区别

python2的print使用方法为:print "Hello", "world!" > Hello world!  python3的print使用方法为print("Hello", "world!") > Hello world! print()方式在python2版本是无法使用的,在python2.6版本中,print函数可以通过 __future_

2017-07-23 13:49:13 242

原创 Anaconda基础使用指南

管理包安装了 Anaconda 之后,管理包是很简单的。安装包,在终端中键入 conda install package_name 。如,要安装 numpy,键入 conda install numpy 可同时安装多个包。如:conda install numpy scipy pandas 还可以通过添加版本号(例如 conda install nump

2017-07-23 13:31:15 771

原创 BP算法推导

反向传播算法是深度学习的基础之一,其主要的核心就是对代价函数EE关于权重ww(或偏置bb)的偏导数∂E{\partial E}/∂w{\partial w}的表达式。这个表达式代表在改变权值和偏置时,代价函数变化的快慢。使用wljkw_{jk}^l表示从(l−1)th(l-1)^{th}层的kthk^{th}神经元到lthl^{th}层的jthj^{th}神经元上的权重。之所以ll的序号在(l−1)

2017-07-18 21:28:03 535

原创 BP算法推导

反向传播算法是深度学习的基础之一,其主要的核心就是对代价函数$E$关于权重$w$(或偏置$b$)的偏导数${\partial E}$/${\partial w}$的表达式。这个表达式代表在改变权值和偏置时,代价函数变化的快慢。使用$w_{jk}^l$表示从$(l-1)^{th}$层的$k^{th}$神经元到$l^{th}$层的$j^{th}$神经元上的权重。之所以$l$的序号在$(l-1)

2017-07-18 09:29:50 310

原创 如何避免成为伪工作者

每天可能有很多工作,在做完一部分工作的同时,可能会有更多的工作到来,因为工作是动态迭代的过程,永远不可能有做完的时候。很多人因此产生焦虑,工作效率不高,这种人被称为伪工作者。避免成为伪工作者,应当找到最重要的工作并优先完成,选择出做哪件事能够获得最大利益(个人/团体)。查看原文:http://data.1kapp.com/?p=199

2017-07-15 21:29:53 490

原创 优秀机器学习视频笔记收集

机器学习基石 学习笔记查看原文:http://data.1kapp.com/%e4%bc%98%e7%a7%80%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0%e8%a7%86%e9%a2%91%e7%ac%94%e8%ae%b0%e6%94%b6%e9%9b%86/

2017-07-14 19:27:26 260

原创 在线机器学习书籍

贝叶斯方法:概率编程查看原文:http://data.1kapp.com/%e5%9c%a8%e7%ba%bf%e6%9c%ba%e5%99%a8%e5%ad%a6%e4%b9%a0%e4%b9%a6%e7%b1%8d/

2017-07-14 17:08:48 283

原创 第一次接触tensorflow

#此为单变量版import tensorflow as tfimport numpy as np#creat datax_data = np.random.rand(100).astype(np.float32)#随机100个数据项,以float32格式存储y_data = x_data*0.1+0.3#y=0.1x+0.3###creat tensorflow structure star

2017-07-06 18:00:33 169

原创 BP算法公式推导

反向传播算法是深度学习的基础之一,其主要的核心就是对代价函数EE关于权重ww(或偏置bb)的偏导数∂E{\partial E}/∂w{\partial w}的表达式。这个表达式代表在改变权值和偏置时,代价函数变化的快慢。使用wljkw_{jk}^l表示从(l−1)th(l-1)^{th}层的kthk^{th}神经元到lthl^{th}层的jthj^{th}神经元上的权重。之所以ll的序号在(l−1)

2017-07-06 13:33:55 2524

炼数成金数据挖掘视频

炼数成金数据挖掘视频!2分提供,不用客气哟!2分提供!共同进步!互联网开源精神!

2016-02-02

王家林spark课程教程-免费无key

王家林spark视频教程,你懂得哦,免费无key

2015-02-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除