自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(28)
  • 资源 (4)
  • 收藏
  • 关注

原创 torch和torchvision对应的版本

torch的安装

2022-09-15 15:19:27 983 1

原创 pycharm连接服务器远程调试出现No module named‘_pydevd_bundle_ext‘

问题:使用pycharm远程调试一致出现No module named’_pydevd_bundle_ext’这个错误坑坑…,这个错误浪费了我3个小时。我的代码如下:if __name__ == '__main__': print('DD') print()错误如下Traceback (most recent call last): File "/home/www/.pycharm_helpers/pydev/_pydevd_bundle/pydevd_trace_dispatc

2021-12-30 18:36:31 4764 8

原创 conda创建环境时出现SSLError certificate错误

`An HTTP error occurred when trying to retrieve this URL.HTTP errors are often intermittent, and a simple retry will get you on your way.SSLError(MaxRetryError('HTTPSConnectionPool(host=\'mirrors.tuna.tsinghua.edu.cn\', port=443): Max retries exceeded wi

2021-10-20 11:55:20 12126 3

原创 torch遇到的错误

1 CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.For debugging consider passing CUDA_LAUNCH_BLOCKING=1.在代码中加入os.environ['CUDA_LAUNCH_BLOCKING'] = '1'可以将错误的具体位置显示出来。以上的问题大多是网络中的labe

2021-09-09 14:09:06 26321 5

原创 tf.train.Coordinator

tensorflow中协调器 tf.train.Coordinator 和入队线程启动器 tf.train.start_queue_runnersensorFlow的Session对象是支持多线程的,可以在同一个会话(Session)中创建多个线程,并行执行。在Session中的所有线程都必须能被同步终止,异常必须能被正确捕获并报告,会话终止的时候, 队列必须能被正确地关闭。TensorFlow提供了两个类来实现对Session中多线程的管理:tf.Coordinator和 tf.QueueRunner

2020-12-28 11:11:48 452

原创 解决pip按照tensorflow速度慢的问题

在虚拟环境中使用该命令,下载按照速度特别的快。python -m pip install tensorflow==2.2.0 -i https://pypi.douban.com/simple

2020-12-27 11:33:06 727

原创 持续学习-Continual learning

当前主流的针对神经网络模型的持续学习方法可以分为一下几类:1. Regularization: 在网络参数更新的时候增加限制,使得网络在学习新任务的时候不影响之前的知识。这类方法中,最典型的算法就是EWC。EWC https://github.com/GMvandeVen/continual-learning2. Ensembling: 当模型学习新任务的时候,增加新的模型(可以是显示或者隐式的方法),使得多个任务实质还是可以对应多个模型,最后把多个模型的预测进行整合。增加子模型的方式固然好,但是没多

2020-12-24 14:29:53 4260

原创 python的进程和线程详细讲解和使用

python并行计算(上):multiprocessing、multiprocess模块 - 爱coding的文章 - 知乎https://zhuanlan.zhihu.com/p/46798399python并行计算(下):multiprocessing模块实例 - 爱coding的文章 - 知乎https://zhuanlan.zhihu.com/p/46718327...

2020-11-24 15:42:06 130

原创 python显示3D网格图

from mpl_toolkits.mplot3d import Axes3Dimport matplotlib.pyplot as pltimport numpy as npdef himmelbau(x): return (x[0]**2 + x[1] - 1)**2 + (x[0] + x[1] **2 -7)**2x = np.arange(-6,6,0.1)y = np.arange(-6,6,0.1)print('x,y range:',x.shape,y.shape)

2020-10-30 17:46:58 3277

原创 python的使用技巧

1 流式读取数G大文件使用read方法,指定每次指定读取固定大小的内容。下面的代码每次只读取8K的数据方法一def read_from_file(filename,block_size= 1024*8): with open(filename,'r') as fp: while True: chunk = fp.read(block_size) if not chunk: break yield chunk方法二借助辅助函数from functools impo

2020-10-30 17:45:37 125

原创 tensorflow2.2.0将h5模型转为tflite

import tensorflow as tffrom tensorflow.python.framework import opsfrom tensorflow.python.ops import math_opsfrom tensorflow.python.keras import backend as K#自定义损失def ReprojectionLoss(y_true, y_pred): y_pred = ops.convert_to_tensor_v2(y_pred)

2020-10-28 14:13:21 1890 17

原创 Rethinking Classification and Localization for Object Detection

摘要在基于R-CNN的检测器中,两个头结构(即完全连接的头和卷积头)已广泛用于分类和定位任务。但是对于这个两个任务两个头结果是如何工作的缺乏了解。为了理解该问题,我们进行了透彻的分析,发现一个有趣的事实,即两个头部结构对两个任务的偏好相反。具体而言全连接头(fc-head)更适合分类任务,而卷积头(conv-head)更适合定位任务。此外,我们检查了两个头部的输出特征图,发现fc-head比conv-head具有更高的空间敏感性,因此fc-head具有更强的区分能力来分别完整的对象和对象的一部分,但是对于

2020-10-24 16:08:08 984 2

原创 Python深度学习--代码

书中的代码实现:https://github.com/fchollet/deep-learning-with-python-notebooks

2020-10-10 16:53:43 615

原创 图像分类损失的改进---CVPR2018: 更为鲁棒的分类器 卷积原型学习CPL

CVPR2018: 更为鲁棒的分类器 卷积原型学习CPL[https://zhuanlan.zhihu.com/p/49458516](https://zhuanlan.zhihu.com/p/49458516)论文地址:代码实现:

2020-10-10 16:41:11 425

原创 RBF-SoftMax:让模型学到具有表达能力的类别表示---原理和实现

摘要交叉熵是深度学习中非常常用的一种损失,通过交叉熵学到的特征表示会有比较大的类内的多样性。因为传统的softmax损失优化的是类内和类间的差异的最大化,也就是类内和类间的距离(logits)的差别的最大化,没有办法得到表示类别的向量表示来对类内距离进行正则化。之前的方法都是想办法增加类内的内聚性,而忽视了不同的类别之间的关系。本文提出了Radial Basis Function(RBF 径向基函数)距离来代替原来的softmax中的内积,这样可以自适应的给类内和类间距离施加正则化,可以得到更好的表示类别

2020-10-10 15:24:54 540 1

原创 类激活热力图-GradCAM

算法原理这里以猫狗分类为例。计算最后一层的Softmax输出中猫类概率 yc\ y^c yc对最后一层特征图所有像素 Aij\ A_{ij} Aij​的偏导数,即其中,y是Softmax输出的概率向量,c是猫那一类的序号,A是最后一层卷积层输出的特征图,k是特征图的通道维度的序号,i和j分别是宽高维度的序号。然后把 yc\ y_c yc​对特征图每个像素的偏导数求出来之后,取一次矿都维度上全局平均。这一步得到的 akc\

2020-10-09 18:05:19 1119

原创 径向基(Radial Basis Function:RBF)神经网络

前言径向基函数是一个取值仅仅依赖于离远点的实值函数,也就是 ϕ(x)=ϕ(∣∣x∣∣)\ \phi(x)=\phi(||x||) ϕ(x)=ϕ(∣∣x∣∣),或者还可以是任意一点c的距离,c点称为中心点,也就是 ϕ(x−c)=ϕ(∣∣x−c∣∣)\ \phi(x-c)=\phi(||x-c||) ϕ(x−c)=ϕ(∣∣x−c∣∣)。任意一点满足 ϕ(x)=ϕ(∣∣x∣∣)\ \phi(x)=\phi(||x||) ϕ(x)=ϕ(∣∣x∣∣)特性的

2020-10-09 14:10:19 5763

原创 YoloV1-V3

1 YoloV11.1 论文思想1.2 网络结构1.3 损失函数通过开根号设计可以使得,小的bbox loss有较大权重,大的bbox有较小的权重。1.4 缺点(1)在一群小的目标聚集在一起的时候,网络的识别效果就非常的差。(2)当目标出现新的尺寸或者配置的时候,网络的预测的效果非常差。(3)主要的错误原因就是定位的不准确, 因为是直接预测目标的坐标信息,而不是像fater-rcnn和ssd预测微参数。2 YoloV22.1 性能根据上图可以看出yoloV2最高的检测精度可

2020-09-21 18:03:30 254

原创 NMS(No-Maximum Suppression,NMS)

引言非极大值抑制(Non-Maximum Suppression,NMS),就是抑制不是极大值的元素,可以理解为局部最大搜索。其目的就是去掉冗余的检测框,相似的框只保留一个,这样可以消除多余的候选框,找到最佳的物体检测位置。算法步骤算法流程:其中:B为初始化的候选框,S为每个框的相应得分, NtN_tNt​为NMS的阈值。初始一个集合D找到S中最高的得分m将框 bmb_mbm​加入几个D中,并且集合B中去除bmb_mbm​计算集合B中每个框与bmb_mbm​的IOU值如果IOU值大于

2020-09-18 16:31:14 339

原创 nvidia-docker的配置及使用

docker的安装参考链接添加链接描述nvidia-docker的安装参考链接nvidia-docker的使用nvidia-docker run -it --shm-size=10g --runtime=nvidia -e NVIDIA_VISIBLE_DEVICE=0 nvcr.io/nvidia/tensorflow:20.03-tf2-py3 #对应tensorflow 2.1.0版本nvidia-docker run -it --shm-size=10g --runtime=nvi

2020-09-11 18:23:18 3974

原创 pytorch必须掌握的的4种学习率衰减策略

梯度下降算法需要我们指定一个学习率作为权重更新步幅的控制因子,常用的学习率有0.01、0.001以及0.0001等,学习率越大则权重更新的越快。一般来说,我们希望在训练初期学习率大一些,使得网络收敛迅速,在训练后期学习率小一些,使得网络更好的收敛到最优解。 下图展示了随着迭代的进行动态调整学习率的4中策略曲线。上述4种策略为衰减类型:指数衰减、固定步长的衰减、多步衰减、余弦衰减。下面逐一介绍其性质,及pytorch对应的使用方式,需要注意学习率衰减策略很大程度上是依赖于经验与具体问题的,不能照搬参数。

2020-09-10 17:17:44 1903 1

原创 学习率衰减方法之自定义衰减方法

keras中默认的方法lr_reduce = tf.keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.5, patience=10, ver

2020-09-10 11:48:51 559

原创 学习率衰减之余弦退火(CosineAnnealing)

1 引言当我们使用梯度下降算法来优化目标函数的时候,当越来越接近Loss值的全局最小值时,学习率应该变得更小来使得模型尽可能接近这一点,而余弦退火(Cosine annealing)可以通过余弦函数来降低学习率。余弦函数中随着x的增加余弦值首先缓慢下降,然后加速下降,再次缓慢下降。这种下降模式能和学习率配合,以一种十分有效的计算方式来产生很好的效果。在论文Stochastic Gradient Descent with Warm Restarts中介绍主要介绍了带重启的随机梯度下降算法(SGDR),其

2020-09-09 21:11:25 75339 6

原创 迁移学习和模型的微调

迁移学习对于新的数据,需要进行分类或者回归时,常用的方法是在以个大的数据集上(ImageNet包含120万张来自1000类别的数据集)进行预训练一个CNN模型,然后用这个预训练好的模型作为特征提取部分,或者网络的初始化权重应用在特定的任务中。实际应用中,就是在预训练模型的后面接上全连接层,然后用softmax、SVM 或者贝叶斯对网络进行分类,也可以接上几层分类器用来做回归任务。微调(Fine-tuning)对于新的数据与原始数据相似度较高时,可以在原始数据训练得到的模型上对新的数据进行微调。训练

2020-07-16 13:29:30 2532

原创 kears实现加载模型并冻结某些层与finetune

kears加载模型与冻结model.load_weights('checkpointDir/360Net/360Net.h5')这里通过layers获得所有层,类型为list,通过name得到每一层的名字,通过名字来选择冻结那几层,这里我设置的是冻结conv2d和depthwise,训练batch Normalization和dense层。if config.freeze: for i, layer in enumerate(model.layers): if 'depthw

2020-07-07 15:08:41 454

原创 模型压缩与加速概述

文章说明:该文章的内容是我看网上模型压缩视频中的课件内容,这里是我记录的笔记。视频中说内容来源于valse2018:深度神经网络加速核压缩年度紧张包括(2017)程健1 理论基础必要性在许多网络结果中,如VGG-16网络,参数数量1亿3千多万,占用500MB空间,需要进行309亿次浮点运算才能完成一次图像识别任务。可行性论文提出,其实在很多深度的神经网络中存在着显著的冗余。仅仅使用很少一部分(5%)权值就足以预测剩余的权值。该论文还提出这些剩下的权值甚至可以直接不用被学习。也就是说,仅仅训练一小

2020-07-06 17:25:10 592

原创 tensorflow2.2.0中的tf.data加快数据的处理速度

1.训练速度慢的原因在我们训练网络的时候,是cpu先处理好数据然后送入网络中gpu进行计算,这样在cpu处理数据时非常的慢,会使得gpu有较长的空载时间。常规的训练方式如下。2 加速方法2.1 方法1 tf.data.prefetch()这是可以使用tf.data.prefetch()方法,提前从数据集中取出若干数据放到内存中,这样可以使在gpu计算时,cpu通过处理数据,从而提高训练的速度。如下图所示#手动设置dataset = dataset.prefetch(config.batch_

2020-07-06 13:05:55 4845 4

原创 Recurrent Neural Networks for Remaining Useful Life Estimation翻译

Recurrent Neural Networks for Remaining Useful Life Estimation翻译 Recurrent Neural Networks for RemainingAbstractINTRODUCTIONDATA OVERVIEWCLASSIFIER TRAININGAPPROACH FOR RUL LEARNINGML PFUNCTION ESTIMA...

2019-11-30 12:09:39 733 2

3DModel.rar

obj格式包括直升飞机、钢铁侠等 gltf模型包括吉他背、飞机、小黄人等。 总共14个模型,这些模型都可以使用。

2020-07-06

poi的jar包

poi所需的各种jar包集合

2017-08-04

itext生成word的表格、段落和图片

效果可以看图片

2017-08-04

itext-1.4.5.jar itext-2.1.7.jar itext-3.1.jar itext-5.0.6.jar

itext-1.4.5.jar itext-2.1.7.jar itext-3.1.jar itext-1.4.5.jar itext-2.1.7.jar itext-3.1.jar itext-5.0.6.jar

2017-07-25

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除