- 博客(9)
- 资源 (8)
- 收藏
- 关注
原创 迁移学习总结(One Shot Learning, Zero Shot Learning)
目录目录迁移学习综述Source Data 与Target Data 都有标签Fine-tuningMultitask LearningSource Data 有标签Target Data 没有标签Domain-adversarial trainingZero-shot LearningSource Data没有标签 Target Data 有标签Self-taught Learn
2017-09-05 12:58:23 18108 6
原创 图像分类器(KNN)
分类过程和数据集分类过程: 数据集: CIFAR数据库(50000训练图像,10000测试图像,10 labels) KNNKNN最邻近规则,主要应用领域是对未知事物的识别,即判断未知事物属于哪一类,判断思想是,基于欧几里得定理,判断未知事物的特征和哪一类已知事物的的特征最接近; K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是
2017-01-20 10:47:09 1650
原创 softmax函数的硬件实现
softmax作用首先我们简单的介绍一下我们使用softmax的用处,以及softmax的函数形式。softmax在维基百科上面的解释是:“softmax function is a generalization of the logistic function that maps a length-p vector of real values to a length-K vector of va
2017-01-20 10:35:46 4599 2
原创 verilog中几种常用的位操作函数
clogb计算二进制的对数上限,例如:1000的对数上限是3,但是1001的对数上限变成了4,计算过程如下: if argument =1000; argument=1000-1=111; 移位操作进行三位,所以记录得到最后的clogb的值为3;function integer clogb(input integer argument); integer i; begin
2016-12-28 09:31:21 6746
原创 sigmoid函数导数的硬件实现(verilog)
仿真思路其实是使用了很普通的硬件的函数的仿真方法,但是有趣的是我为了提升精度将划分划分的更加细致了; 看一下matlab源代码还有图像大家就知道了:function Mysolution()x1=0:0.01:0.125;f1=0.2498 ;x2=0.125:0.01:0.25;f2=0.2478;x3=0.25:0.01:0.375;f3= 0.2440 ;x4=0.375:0.
2016-12-13 21:32:05 6497
原创 多种方式实现Sigmoid函数导数的仿真(含代码)
综述这一周所有的空闲时间就是完成了Sigmoid函数的导数的仿真,用了总共四种方法,并对他们的性能进行了对比。并最后找到了自己的方法,想用于将来的CNN硬件代码当中。基本所有的方法都比较简单,原理我就只是大概得说一说,文章的最末尾会提供相关的参考文献(有代码了还需要其他的吗?)方法一在我的上面的一篇博文中介绍了一种只是用与或非门的仿真sigmoid函数的方法,下面提供了我上一篇文章的链接:[http
2016-11-11 16:19:59 3280
原创 caffe学习笔记(1)完整的caffe继承关系(图解)
caffe学习笔记(1) 这段时间项目要求在硬件上面实现VGG,出现了一些意想不到的困难。就是以前的matalb代码里面是没有出现局部响应归一化层(LRN),caffe里面是实现了的,所以就跑去看caffe的源码。经过几天的摸索,我发现caffe里面最困难的就是对caffe这个结构的理解,一旦理解了,我们可以自己给caffe里面加入需要的层(这是我一直想去干的事,也就是自己添加权值简化网
2016-10-26 20:23:33 1699
原创 Sigmoid函数的高效数字仿真实现(Efficient digital implementation of the sigmoid function)
工作背景因为我们的工作是要实现神经网络在FPGA上的实现(使用Network On Chips的方法),所以我们的计算需要非常注意时间问题。除了卷积运算外,神经网络上面最占用时间的就是激活函数部分了。如果我们可以把激活函数拟合成与或门的逻辑电路,这无疑是非常节省时间的。我的工作现在讲一下我的工作,我主要是在matlab上面去仿真了一种高效的Sigmoid数字实现方式。论文翻译工作我就不做了,文章末尾
2016-10-21 20:07:29 1586 1
翻译 权值简化(1):三值神经网络(Ternary Weight Networks)
三值神经网络:本文是对中科院两位科研工作者的文章的理解翻译: 就目前而言,深度神经网络的层数和训练时间变得越来越多。一方面,人们想要在处理器上面下功夫,但是处理器的处理速度也十分有限。造成目前一个比较深的神经网络的训练时间有时候往往需要一到两周,基于目前的困难,就有人提出了解决方式。 首先,在神经网络训练的整个训练过程中,最占用时间的无疑是乘法操作。是浮点型数据的乘法尤其消
2016-10-19 19:12:17 8888 1
TensorFlow machine learning cookbook
2017-09-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人