自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(79)
  • 资源 (10)
  • 收藏
  • 关注

原创 YOLOV5 TensorRT部署 BatchedNMS(engine推理)

yolov5 tensorrt部署时引入nms plugin,nms在cuda上执行,减少内存拷贝和运行时间

2024-04-23 15:11:55 15

原创 yolov5 obb旋转框 tensorrt部署

yolov5-obb tensorRT部署代码结合王新宇和fish-kong两者的代码,可以多batch批量检测旋转框。等待生成engine文件。执行完毕生成推理结果。

2023-11-06 18:40:40 413

原创 Yolov5旋转框(斜框)检测自己的数据集,附带代码+数据集(模型可以收敛)

yolov5检测旋转目标,输出旋转框

2023-11-01 10:27:58 1382 6

原创 计算机类论文辅导(SCI写作和投稿),毕设辅导,竞赛辅导,升学材料润色

我们的团队由经验丰富的竞赛导师组成,他们将与您合作,提供技巧、策略和项目指导,帮助您在竞争激烈的环境中脱颖而出。从数据准备到模型训练,从调优到结果评估,我们将为您提供一流的技术支持,确保您的项目取得令人满意的成果。从选题到论文结构,从文献综述到数据分析,我们将为您提供个性化的支持,确保您的论文在同行中脱颖而出。我们的专业导师将与您合作,从论文选题、研究方法到结果分析和写作技巧,为您提供系统化的辅导,确保您顺利完成毕业论文,达到优秀的水平。联系我们,一起创造未来!- 让你的申请脱颖而出,获得梦校的青睐。

2023-09-26 10:14:55 293 2

原创 yolov5使用最新MPDIOU损失函数,有效和准确的边界盒回归的损失,优于GIoU/EIoU/CIoU/EIoU(附代码可用)

MPDIOU 能够有效解决重叠和包含问题,并且能够有效地处理预测框和目标框长宽比相同的情况,而且计算量小,模型训练速度快。在数据集上测试和验证,发现能够提升训练精度,并且有效地区分两个目标存在包含的关系的预测框回归,推荐大家使用MPDIOU 进行训练。

2023-09-18 19:01:20 1637

原创 yolov5+Repulsion损失函数,解决密集遮挡问题(附带代码可用)

yolov5+RepLoss,解决密集遮挡问题

2023-09-12 19:47:13 2104 23

原创 利用pycocotools库计算MAP:生成coco格式 json文件数据集和计算map值

在目标检测任务中,需要通过Map指标判断模型的精度。为了测试engine文件推理结果的精度,本文介绍了如何使用pycocotools库计算Map,在此之前需要根据coco格式生成json文件。

2023-05-29 16:24:12 1392

原创 yolov5 批量修改labelimg标注xml文件内容(python版本)

半自动打标签只能将所有图片都归为一个类别,后期如果想要修改类别可以一键修改,避免从labelimg中逐一修改。yolov5训练自定义数据集时,需要对半自动打标签的xml文件中的类别进行批量修改。

2023-05-04 13:45:27 821

原创 yolov5半自动打标签(opencv版本),识别目标画框并将坐标信息保存在xml中

yolov5训练数据集时,需要对数据进行打标签,可以通过两种方法进行半自动化打标签。

2023-04-26 14:47:28 1435

原创 yolov5中将txt文件格式转xml

yolov5中使用的txt文件格式转xml

2023-03-10 09:43:58 1059

原创 yolov5训练自己的数据集,xml转txt以及划分数据集(更新xml转txt时统计类别名称和个数)

yolov5训练自己的数据集,xml转txt以及划分数据集。

2023-02-20 18:56:09 1617

原创 python根据yolov5输出的label txt文件,批量截取目标框图片并保存

python根据yolov5检测得到的txt文件,截取目标框图片并保存。

2022-10-27 16:09:49 3706 7

原创 大数据实战电商推荐系统(6)- 基于物品的协同过滤相似推荐(Item-CF算法)

文章目录1. 基于物品的协同过滤(Item-CF)2. 代码3. 结果展示数据获取和处理以及环境的配置详见上一篇文章: https://blog.csdn.net/qq_42754919/article/details/119679441基于物品的协同过滤(Item-CF),只需收集用户的常规行为数据(比如点击、收藏、购买)就可以得到商品间的相似度,在实际项目中应用很广。1. 基于物品的协同过滤(Item-CF)基于物品的协同过滤(Item-CF)主要思想:对于同一个用户购买的不同商品内部应该存在某

2021-08-14 21:01:21 846 1

原创 大数据实战电商推荐系统(5)- 基于内容的相似商品推荐(TF-IDF算法)

文章目录1.TD-IDF介绍2. 算法数据获取和处理以及环境的配置详见上一篇文章: https://blog.csdn.net/qq_42754919/article/details/119606604?spm=1001.2014.3001.5501每个商品都有标签,标签可以大致的概括商品的特征,但是并不是所有的标签对商品的特征影响性大。因此本文首先使用TD-IDF算法计算每个标签对商品的权重,将最终计算出的特征值转化为稀疏向量,利用余弦相似度计算两个商品之间的相似程度,用于推荐相似的商品。1.TD-

2021-08-13 19:57:12 1477

原创 大数据实战电商推荐系统(4)- 实时推荐服务根据最新评价商品推荐相似商品

文章目录1.创建文件+配置文件2. 模型+算法3.结果展示数据获取和处理详见上一篇文章:https://blog.csdn.net/qq_42754919/article/details/119545130这一节主要介绍实时推荐系统服务,根据当前用户最新的商品评价,推荐出相似度接近的商品,并根据当前用户之前评价的商品,计算每个推荐商品和之前评价商品之间的相似度,从高到低将备选商品推荐给当前用户。1.创建文件+配置文件pom.xml文件<?xml version="1.0" encodi

2021-08-11 15:30:41 1403 1

原创 大数据实战电商推荐系统(3)-基于隐语义模型的离线推荐模块

文章目录1.创建文件+配置文件2. 模型+算法2.1 隐语义模型2.2 商品相似度矩阵2.3 算法3. 模型调参数据获取和处理详见上一篇文章:https://blog.csdn.net/qq_42754919/article/details/119493103这一节主要介绍基于隐语义模型的协同过滤推荐算法,根据用户评价商品计算用户和商品之间的关系。最后生成用户推荐商品列表和商品相似度列表。1.创建文件+配置文件<?xml version="1.0" encoding="UTF-8"?>

2021-08-09 20:08:25 509

原创 大数据实战电商推荐系统(2)-离线统计服务(统计历史热门商品,近期热门商品,优质商品)

文章目录1. 创建文件+配置文件2.代码3.结果展示1. 创建文件+配置文件StatisticsRecommender下的pom.xml配置如下:<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:sche

2021-08-07 21:43:56 549 1

原创 大数据实战电商推荐系统(1)-数据加载和存储

文章目录1. 创建文件+配置文件2.代码3.结果展示数据集:链接:https://pan.baidu.com/s/1PbHV-pq_fF-ltQhj6yh5Hw提取码:q0bv1. 创建文件+配置文件具体的文件创建操作不再展示,最终创建文件如下:在这里插入图片描述ECommerceRecommendSystem下的pom.xml配置如下:<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.

2021-08-07 20:50:49 594

原创 本地代码上传到Github中

我们使用git需要先安装git工具,这里给出下载地址,下载后一路直接安装即可:https://git-for-windows.github.io/1.创建项目进入GitHub网站创建项目,输入项目名称,然后点击create repository2.上传代码在待上传文件夹下右键选择Git Bash Here输出git init 初始化git add .(后面还有一个点),将所有文件加入待上传,警告可以忽略输入git remote add origin path (Path为你创建的项目

2021-07-22 16:23:53 85

原创 大数据Spark案例实操3–统计电商网站的用户行为页面单跳转换率统计

文章目录1.数据准备和分析2.需求说明3.代码1.数据准备和分析参考上篇博客https://blog.csdn.net/qq_42754919/article/details/1180710492.需求说明计算页面单跳转化率,什么是页面单跳转换率,比如一个用户在一次 Session 过程中访问的页面路径 3,5,7,9,10,21,那么页面 3 跳到页面 5 叫一次单跳,7-9 也叫一次单跳,那么单跳转化率就是要统计页面点击的概率。分析如下:页面是指同一个sessionID,在一个连续的

2021-06-22 22:06:45 590 2

原创 大数据Spark案例实操2–统计电商网站的用户行为每个品类的 Top10 活跃 Session 统计

文章目录1.数据准备和分析2.需求分析3.代码1.数据准备和分析参考上篇博客https://blog.csdn.net/qq_42754919/article/details/1180710492.需求分析在需求一的基础上,增加每个品类用户 session 的点击统计首先Top10活跃session统计必须要属于Top10热门品类session统计意思是用户对某页面点击量输出top10热门品类中按用户点击次数最多排序3.代码统计Top10热门品类分析和代码见另一个博客https:/

2021-06-22 20:19:35 380 1

原创 大数据Spark案例实操1–统计电商网站的用户行为数据Top10 热门品类(三种方法)

文章目录1.准备数据2. 需求分析3.代码-方法11.准备数据链接:https://pan.baidu.com/s/14RxFpmXun7Wj-unDUvjyVg提取码:mjk6上面的数据图是从数据文件中截取的一部分内容,表示为电商网站的用户行为数据,主要包含用户的 4 种行为:搜索,点击,下单,支付。数据规则如下::数据以_(下划线)为分隔符每一行数据表示用户的一次行为,这个行为只能是上诉 4 种行为的一种如果搜索关键字为 null,表示数据不是搜索数据针对于下单行为,一次可以下单多

2021-06-20 17:09:58 1559 7

原创 大数据Spark入门案例5–统计广告点击数量排行Top3(scala版本)

大数据Spark入门案例5–统计每广告点击数量排行Top3(scala版本)1 数据准备链接:https://pan.baidu.com/s/1afzmL-hNsAJl1_gx_dH2ag提取码:yybiagent.log:时间戳,省份,城市,用户,广告,中间字段使用空格分隔。2 需求分析统计出每一个省份每个广告被点击数量排行的 Top3首先将获取的数据进行切分,挑选需要的参数:省份+广告以省份和广告位为key,统计当前省份当前广告观看次数sum按省份进行分类排序输出top3数据

2021-06-16 14:53:35 1791

原创 大数据Spark入门案例4–RDD 转换算子Key-Value类型(scala版本)

大数据Spark入门案例43–RDD 转换算子Key-Value类型(scala版本)文章目录1.1 partitionBy()1.2 reduceByKey()1.3 groupByKey()1.4 groupByKey(K)(A,B)1.5 foldByKey(K)(A)1.6 combineByKey(A,B,C)1.1 partitionBy()将数据按照指定类型重新进行分区,Spark 默认的分区器是 HashPartitioner//将三个分区数据按照HashPartitioner分

2021-06-16 10:00:06 299

原创 大数据Spark入门案例3–RDD 转换算子Value类型(scala版本)

大数据Spark入门案例3–RDD 转换算子(scala版本)文章目录1.1 map()1.2 mapPartitions()1.3mapPartitionsWithIndex()1.4 flatMap()1.5 glom()1.6 groupBy()1.7 filter()1.7 distinct(num)1.8 coalesce()+repartition()1.9 sortBy(A,B)1.1 map()将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。val r

2021-06-15 09:49:23 366 1

原创 大数据Spark入门案例2–读文件+分区(python+scala版本)

大数据Spark入门案例2–读文件+分区(python+scala版本)文章目录1.读文件1.scala版本1.1从内存中创建RDD2.从外部存储(文件)创建 RDD2.python版本2.分区1.scala版本2.python版本1.读文件1.scala版本1.1从内存中创建RDD从集合中创建 RDD,Spark 主要提供了两个方法:parallelize 和 makeRDD。从内存中创建数列集合。parallelize()makeRDD()package com.root.RDDi

2021-06-09 15:14:10 318 3

原创 大数据Spark入门案例1–wordcount(python+scala版本)

大数据Spark入门案例1–wordcount(python+scala版本)文章目录1.Scala版本1.Scala版本使用IDEA软件,导入spark和scala依赖和包,本文已经搭建完毕。创建Maven工程,然后创建scala文件。

2021-06-06 21:40:13 321 2

原创 大数据hadoop入门案例6–Yarn常用命令和参数配置

大数据hadoop入门案例6–Yarn常用命令1.列出所有 Applicationyarn application -list2. 根据 Application 状态过滤:(所有状态:ALL、NEW、NEW_SAVING、SUBMITTED、ACCEPTED、RUNNING、FINISHED、FAILED、KILLED)yarn application -list -appStates ALL(状态)3. Kill 掉 Applicationyarn application -kill a

2021-06-02 15:13:08 416

原创 大数据hadoop入门案例5–Reducer阶段join和Map阶段join

大数据hadoop入门案例4–join应用此博客作为本文学习hadoop大数据内容,内容可能存在不够全面或者存在偏差。文章目录1.Reduce Join1.1FlowBean1.2Mapper1.3Reducer1.4Driver1.5输入和输出2.Mapper Join2.1Mapper2.2Driver1.Reduce Join1.1FlowBean将参数序列化存储在内存中。package com.root.jointable;import org.apache.hadoop.io.Wr

2021-05-29 11:22:58 156

原创 大数据hadoop入门案例4–OutputFormat接口输出不同文件中

大数据hadoop入门案例4–OutputFormat接口输出不同文件中此博客作为本文学习hadoop大数据内容,内容可能存在不够全面或者存在偏差。文章目录1.OutputFormat2.代码2.1Mapper2.2Reducer2.3OutputFormat2.4LogLogRecordWriter2.5Driver3.输入+输出3.1输入3.2输出1.OutputFormatMapReducer有默认的文件输出流,但是当需要根据输入内容输出到不同的文件中,需要重新编写OutputFormat。

2021-05-28 11:12:23 153

原创 大数据hadoop入门案例3--对手机号码排序

大数据hadoop入门案例–对手机号码排序文章目录1.排序2.代码2.1FlowBean 序列化代码2.2Mapper代码2.3Reducer代码2.4Driver代码3.输入和输出3.1输入3.2输出4.分区并排序4.1 输出1.排序MapTask和ReduceTask均会对数据按 照key进行排序。因此在实现排序任务时,需要将排序数据传入Key中。默认排序是按照字典顺序排序,且实现该排序的方法是快速排序。1.部分排序:MapReduce根据输入记录的键对数据集排序。保证输出的每个文件内部有序

2021-05-27 09:57:55 348 1

原创 大数据hadoop入门案例2--对手机号码序列化+切片+分区

大数据hadoop入门案例–序列化+分区+排序此博客作为本文学习hadoop大数据内容,内容可能存在不够全面或者存在偏差。文章目录1.定义2.代码2.1FlowBean 序列化代码2.2Partitioner分区代码2.3Mapper代码2.4Reducer代码2.4Driver代码3.输入,输出3.1输入数据3.2输出1.定义1.序列化:将内存中的对象转化为字节序列以便存储到磁盘和网络传输。2.反序列化:将收到的字节序列或磁盘的持久化数据转换为内存中的对象。3.切片:在逻辑上将数据分

2021-05-26 10:29:25 353

原创 大数据hadoop入门示例1-WordCount

Hadoop入门案例–实现WordCount文章目录1.环境配置1.1 pom.xml文件2.resources文件2.创建运行文件2.1创建工程2.2 创建Mapper2.3创建Reducer文件2.4创建Driver3 输入和输出4.1.环境配置1.1 pom.xml文件在maven工程里导入hadoop包,hadoop版本应该和window环境下配置的hadoop环境保持一致。<dependencies> <dependency>

2021-05-25 09:51:25 254 3

原创 An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.

文章目录1.解决问题2.创建文件夹3.上传文件到指定文件夹1.解决问题一开始在本地读取HDFS内的文件,使用下面代码一直报错,翻了很多CSDN博客,配置环境和降低版本都无法解决。from pyspark import SparkContextsc=SparkContext()rdd1=sc.textFile("/test/food.txt")result=rdd1.collect()print(result)后面在别人的博客中发现textFile读取文件时路径存在问题,更改如下:fro

2020-11-02 21:55:52 11680

原创 windows安装Spark3.0.0+hadoop+JDK大数据开发平台

文章目录1.安装Java/Jdk2.Hadoop安装3.安装spark最近打算学习大数据,需要用到spark开放平台,根据CSDN攻略和自己实际遇到的问题进行修改。从安装JDK到Hadoop和Spark。1.安装Java/Jdk根据自己的电脑安装对应的版本,这里选择安装window64位jdk下载地址:https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html下载完毕安装即可,记住自己的安装路径,后面需要

2020-10-31 16:31:05 2017

原创 爬虫(13)-爬虫爬取CVPR+ICCV+ECCV期刊论文自动下载PDF保存文件中(科研党福利)

文章目录1.分析网页2.分析ECCV期刊页面3.爬取ECCV期刊代码4.爬取ICCV期刊代码5.爬取CVPR期刊代码6.结果展示最近导师叫我下载CVPR,ICCV,ECCV会议论文,发现每个期刊都有好几百篇论文。一个一个点击非常耗费时间,正好在学习爬虫,利用爬虫抓取一下网页。完成老师分配的任务之后将这个代码分享出来,供大家使用和学习,解决下载论文的烦恼。毕竟科技的进步就是使人懒惰,哈哈哈运行速度和每个人的网速有关,可以先在浏览器中下载一个论文,测一下网速,网速慢的话建议搭载VPN,也有部分论文内存很大

2020-10-29 11:12:01 2661 4

原创 爬虫(12)-爬虫爬取安居客二手房和新房信息

文章目录1.页面分析2.代码3.结果展示本文主要讲解爬取安居客买房类别中的二手房和新房,将提取的信息存储在记事本中,也可以转存CSV格式或者MongoDB中。网站HTML信息提取比较简单,没有什么特别的地方,作为爬虫入门可以让初学者快速了解爬虫方法。认为有用的话请点赞,码字不易,谢谢。其他爬虫实战请查看:https://blog.csdn.net/qq_42754919/category_10354544.html1.页面分析我们从网站的主页面开始提取网站信息,一直到最后具体的房产信息。以二手

2020-10-22 19:35:39 2044 3

原创 爬虫(11)-爬虫爬取天天基金网基金排行

文章目录1.网址分析2.网页信息分析3.代码4.结果展示CSDN上大部分爬取天天基金的博客都失效或者无法有效爬取信息,本文可以有效抓取网页上的信息。认为有用的话请点赞,码字不易,谢谢。其他爬虫实战请查看:添加链接描述本文以天天基金网为例,爬取网站上的基金排行并存储在本地记事本中和MongoDB数据库中。网址:http://fund.eastmoney.com/data/fundranking.html#tall;c0;r;szzf;pn501.网址分析打开网页我们看到每页最多显示50个基金信息

2020-10-15 15:58:12 2487 7

原创 爬虫(10)-爬虫以json,csv和txt方式存储文件

文章目录1.json存储/读取文件2.csv存储/读取文件3.txt存储/读取文件本文介绍了爬虫中使用存储文件格式为json,csv和txt形式,此外还介绍如何从这个形式中读取文件。其他爬虫实战请查看:https://blog.csdn.net/qq_42754919/category_10354544.html觉得有用请点赞,谢谢。1.json存储/读取文件import json,csvdata=[{'name':'li','age':'18'}]with open('data.json',

2020-10-14 10:08:35 310 1

原创 爬虫(9)-python爬虫爬取电子书存储在txt文件中

文章目录1.分析主页面2.分析电子书主页面3.分析正文界面4.存储5.全部代码+解析6结果展示7.总结本文以笔趣阁网站为例,爬取网站上的电子书并存储在本地记事本中。网站地址:https://www.biqukan.com/认为有用的话请点赞,码字不易,谢谢。1.分析主页面打开网址,F12查看网页源代码,我们发现四部比较火的电子书的节点属性是< hot >,本文主要爬取四部比较火的电子书。我们从class=item节点提取电子书的地址,源代码给的URL需要加上原始代码。 it

2020-10-13 16:34:12 3092 1

安居客二手房和新房.py

使用python爬虫,爬取安居客网站新盘和二手房商品信息,并按类别,地区存储在文件夹中。从主网站一直到房产详细页面爬取信息。

2020-10-25

python爬虫爬取天天基金

使用selenium加载网页,回去网页源代码,爬取天天基金网站基金排行,并存储在MongoDB和txt几十本中。

2020-10-15

爬取电子书并保存在本地

使用python爬虫爬取网站上的电子书,并保存在本地以TXT格式保存,提示当前下载进度,爬取主页全部火的电子书,保存本地。

2020-10-13

Rain12600.zip

rain12600数据集,里面包含rain图片和norain图片,用于图像去雨方向的数据集,无雨图片有900张,每张图片对应14张不同方向密度的有雨图片。

2020-06-30

Rain1400.zip

rain1400数据集,里面包含rain图片和norain图片,用于图像去雨方向的数据集,无雨图片有100张,每张对应14张不同密度方向的有雨图片

2020-06-30

Rain1200.zip

rain1200数据集,里面包含rain图片和norain图片,用于图像去雨方向的数据集,含有1200个无雨和有雨图片

2020-06-30

Rain100L.zip

rain100L数据集,里面包含rain图片和norain图片,用于图像去雨方向的数据集,雨的密度比较小

2020-06-30

Rain100H.zip

rain100H数据集,里面包含rain图片和norain图片,用于图像去雨方向的数据集,雨的密度比较大

2020-06-30

se-resnet.py

SE-Resnet注意力机制网络搭建,包含残差网络和全连接层,特征融合构建SE-resnet网络结构

2020-06-01

resnet34.py

pytorch实现resnet-34网络结构,包含残差网络的实现,网络的通道计算和搭建,计算机视觉方向

2020-06-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除