自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (8)
  • 收藏
  • 关注

原创 迁移学习总结(One Shot Learning, Zero Shot Learning)

目录目录迁移学习综述Source Data 与Target Data 都有标签Fine-tuningMultitask LearningSource Data 有标签Target Data 没有标签Domain-adversarial trainingZero-shot LearningSource Data没有标签 Target Data 有标签Self-taught Learn

2017-09-05 12:58:23 18108 6

原创 图像分类器(KNN)

分类过程和数据集分类过程: 数据集: CIFAR数据库(50000训练图像,10000测试图像,10 labels) KNNKNN最邻近规则,主要应用领域是对未知事物的识别,即判断未知事物属于哪一类,判断思想是,基于欧几里得定理,判断未知事物的特征和哪一类已知事物的的特征最接近; K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是

2017-01-20 10:47:09 1650

原创 softmax函数的硬件实现

softmax作用首先我们简单的介绍一下我们使用softmax的用处,以及softmax的函数形式。softmax在维基百科上面的解释是:“softmax function is a generalization of the logistic function that maps a length-p vector of real values to a length-K vector of va

2017-01-20 10:35:46 4599 2

原创 verilog中几种常用的位操作函数

clogb计算二进制的对数上限,例如:1000的对数上限是3,但是1001的对数上限变成了4,计算过程如下: if argument =1000; argument=1000-1=111; 移位操作进行三位,所以记录得到最后的clogb的值为3;function integer clogb(input integer argument); integer i; begin

2016-12-28 09:31:21 6746

原创 sigmoid函数导数的硬件实现(verilog)

仿真思路其实是使用了很普通的硬件的函数的仿真方法,但是有趣的是我为了提升精度将划分划分的更加细致了; 看一下matlab源代码还有图像大家就知道了:function Mysolution()x1=0:0.01:0.125;f1=0.2498 ;x2=0.125:0.01:0.25;f2=0.2478;x3=0.25:0.01:0.375;f3= 0.2440 ;x4=0.375:0.

2016-12-13 21:32:05 6497

原创 多种方式实现Sigmoid函数导数的仿真(含代码)

综述这一周所有的空闲时间就是完成了Sigmoid函数的导数的仿真,用了总共四种方法,并对他们的性能进行了对比。并最后找到了自己的方法,想用于将来的CNN硬件代码当中。基本所有的方法都比较简单,原理我就只是大概得说一说,文章的最末尾会提供相关的参考文献(有代码了还需要其他的吗?)方法一在我的上面的一篇博文中介绍了一种只是用与或非门的仿真sigmoid函数的方法,下面提供了我上一篇文章的链接:[http

2016-11-11 16:19:59 3280

原创 caffe学习笔记(1)完整的caffe继承关系(图解)

caffe学习笔记(1)    这段时间项目要求在硬件上面实现VGG,出现了一些意想不到的困难。就是以前的matalb代码里面是没有出现局部响应归一化层(LRN),caffe里面是实现了的,所以就跑去看caffe的源码。经过几天的摸索,我发现caffe里面最困难的就是对caffe这个结构的理解,一旦理解了,我们可以自己给caffe里面加入需要的层(这是我一直想去干的事,也就是自己添加权值简化网

2016-10-26 20:23:33 1699

原创 Sigmoid函数的高效数字仿真实现(Efficient digital implementation of the sigmoid function)

工作背景因为我们的工作是要实现神经网络在FPGA上的实现(使用Network On Chips的方法),所以我们的计算需要非常注意时间问题。除了卷积运算外,神经网络上面最占用时间的就是激活函数部分了。如果我们可以把激活函数拟合成与或门的逻辑电路,这无疑是非常节省时间的。我的工作现在讲一下我的工作,我主要是在matlab上面去仿真了一种高效的Sigmoid数字实现方式。论文翻译工作我就不做了,文章末尾

2016-10-21 20:07:29 1586 1

翻译 权值简化(1):三值神经网络(Ternary Weight Networks)

三值神经网络:本文是对中科院两位科研工作者的文章的理解翻译:    就目前而言,深度神经网络的层数和训练时间变得越来越多。一方面,人们想要在处理器上面下功夫,但是处理器的处理速度也十分有限。造成目前一个比较深的神经网络的训练时间有时候往往需要一到两周,基于目前的困难,就有人提出了解决方式。    首先,在神经网络训练的整个训练过程中,最占用时间的无疑是乘法操作。是浮点型数据的乘法尤其消

2016-10-19 19:12:17 8888 1

TensorFlow machine learning cookbook

TensorFlow-ML-cookbook TensorFlow-ML-cookbook TensorFlow-ML-cookbook TensorFlow-ML-cookbookTensorFlow-ML-cookbookTensorFlow-ML-cookbook

2017-09-12

16位低能耗阵列乘法器

我做的16位的降低精度的乘法器

2017-02-17

神经形态认知计算 Neuromorphic Cognitive Computing

神经形态认知

2017-01-12

Memristor忆阻器

Memristor施路平 清华大学类脑计算研究中心

2017-01-12

从脑机接口到脑机融合

从脑机接口到脑机融合

2017-01-12

类脑计算的理理念与实践

类脑计算的理理念与实践黄铁军 北京大学信息科学技术学院 计算机科学技术系 数字视频编解码技术国家工程实验室

2017-01-12

深度学习处理器

深度学习处理器中国科学院计算技术研究所 陈云霁

2017-01-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除