自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Hakutaku白泽

白泽的个人博客

  • 博客(39)
  • 资源 (1)
  • 收藏
  • 关注

原创 关于安装Anaconda+Jupyter Lab搭建Python环境时的流程详解,以及终端Terminal闪退、报错Launcher Error的解决方案

文章目录前言介绍AnacondaJupyter Lab下载安装Anaconda的下载与安装前言        自从博主的电脑重装系统后,还尚未安装Python编译器。因为懒惰,只是需要用到Python时通过记事本瞎胡写写,反正Notepad3差不多就有点编译器的感觉了(x)。由于今天兴致上来了,想暂时抛弃Pycharm体验一把Jupyter Lab的快乐,因此说干就干,开始运用Anaconda+Jupyter Lab搭建Py

2021-07-07 21:13:58 2320 1

原创 关于Office弹窗+横幅提示“你的许可证不是正版,并且你可能是盗版软件的受害者...”的解决方案——以Office2019为例

文章目录遭遇问题未成功解决的错误方法解决方案附录 - 各个版本Office对应更换密钥Office2019版本Office2016版本Office2013版本遭遇问题        前一段时间,博主电脑的Office2019软件忽然开始在每次打开时弹出“你的许可证不是正版,并且你可能是盗版软件的受害者。使用正版Office,避免干扰并保护你的文件安全。”的弹窗+横幅提示,因为博主要准备答辩暂且搁置了这个问题。直到今天撰写材料

2021-06-18 11:03:17 143573 111

原创 【多实例测试+字符串】英文文本停用词处理——C语言解法

题目描述        多实例测试,每次输入一段文本,是标准格式的英文材料,去除其中的停用词,然后原格式输出。注意事项        1.原格式要求段落、标点符号等都一致。        2.停用词仅限于下列:a,an,and,of,or,but。样例输入I.

2021-04-06 12:05:01 582 1

原创 【ZZULIOJ】2548:输出最小的正整数——Python解法与解题思路

2548: 输出最小的正整数时间限制: 1 Sec 内存限制: 128 MB题目描述输入n个int范围内的整数,找出最小的正整数并输出。输入第一行输入一个正整数n(n<1000),第二行输入n个整数,用空格隔开。输出输出一个整数为n个输入的整数中最小的正整数,如果没有找到,输出"not found"。样例输入38 5 9样例输出5Python解法numlist = []n = int(input())a = input()s = 0numlist.app.

2021-03-26 16:59:59 1474 1

原创 【学习笔记】webpack打包工具的安装与使用——关于npm安装的webpack打包时报错:The ‘mode‘ option has not been set...的解决方案

文章目录webpack打包工具安装webpack使用webpack打包工具(报错)问题解决方案测试webpack打包工具        webpack是一个模块打包工具,可以把前端项目中的js、cs、scss/less、图片等文件都打包到一起,实现自动化构建。由于构建Vue项目的需要,因此博主尝试安装使用了webpack打包工具。安装webpack官网:https://webpack.js.org/concepts/

2021-03-16 12:57:40 3097

原创 【计算机网络学习笔记】用户A向用户B发送数据的过程——TCP/IP数据处理流程展示

文章目录1.计算机网络体系结构应用层传输层网络层数据链路层物理层2.数据发送端到数据接收端的过程示意图3.过程描述1.计算机网络体系结构应用层        决定向用户提供应用服务时通信的活动。TCP/IP 协议族内预存了各类通用的应用服务。比如:FTP、DNS、HTTP 协议。传输层        传输层对上层应用层,提供处于网络连接.

2020-12-19 20:28:19 1160 1

原创 记录使用【阿里云服务器+宝塔Linux】写反爬虫时遇见的nginx配置文件无效问题——一名小菜鸡如何在云服务器搭建的个人网站上编写自己网站的反爬虫?

        一个半月前,在编写了第一个反爬虫并撰写了博客:【反爬虫】在阿里云服务器所搭建的个人博客中通过Nginx进行反爬虫测试:禁止Python爬虫直接爬取博客页面实战——以信息校验型User-Agent反爬虫为例后,在不断尝试cookie反爬虫时博主已经当场自闭。今天在请教了老师并测试想法后,发现一键安装的宝塔linux有个大问题,因此在这里记录一下。目录主要问题nginx配置文件基础知识问题提出问题分析主要问题

2020-09-27 18:53:18 489 1

原创 【Python爬虫实战+Tkinter+Threading】UI界面线程守护表情包爬虫项目——斗图?我爬一堆表情包giao哭你!

        这一段博主在禹州进行项目实训,恰好碰到的主题是博主最擅长的爬虫。本来前一段时间写了一篇腾讯漫画js逆向爬虫,但是最近这两天由于腾讯漫画源代码的更改导致在js逆向的最后获取数据解密时屡次报出编码错误。思路没问题,问题就出在js逆向上(有兴趣的朋友可以通过python逆向解决编码问题或者是nodejs、excejs直接执行解析js代码)。因此,只好随便拿了一个几个月前所写的表情包爬虫项目作为替代。目录源代码表情包

2020-09-24 18:14:05 725

原创 【Python爬虫+js逆向】使用Python爬取腾讯漫画的逆向分析(典型签名验证反爬虫的解决方案)——以腾讯动漫《一人之下》第一话为例

        前一段假期期间,博主已经自学完了Python反爬虫的相关内容,面对各大网站的反爬机制也都有了一战之力。可惜因实战经验不足,所以总体来说还是一个字——菜。前两天,在学习并实战爬取了博主最爱看的腾讯动漫后,博主对于js逆向的相关反爬技术有了更加深入的理解。目录目标网站爬取分析反爬思路分析反爬解密分析目标网站爬取分析反爬思路分析      &nbs

2020-09-10 10:07:19 6892 15

原创 【云服务器】阿里云服务器+宝塔Linux零成本搭建全网音乐搜索引擎网站(在线音乐播放器),可在线播放可下载可分享它不香么?

        前几天因为博主的个人博客即将到期,因此特意从个人博客搬运出了文章:超详细教程】阿里云+宝塔+Typecho零基础搭建个人博客全套式教程——以免费领取的ECS阿里云服务器为例。然而,昨天因为在阿里云高校计划续费测试中拿到了90分成功续命了之前白嫖的阿里云服务器。因此在今天,博主就来为大家分享一下刚搭建好的音乐播放器的实现步骤与经验总结。目录前期准备实现步骤1.添加站点2.下载GitHub项目到本地3.部署音乐播

2020-09-03 00:14:09 1849

原创 玩转Chrome插件?来康康这篇《Chrome扩展程序crx插件的导出与安装通用方法步骤》吧!

目录Chrome插件的导出Chrome插件的安装方法一方法二Chrome插件的导出        1.打开谷歌浏览器,点击右上角的菜单icon(用户旁边的三个点) -> 更多工具 -> 扩展程序。        2。来到chrome://extensions/页面,开发者模式打上勾,点击“打包扩展程序”,在弹出的窗口里面填写“扩.

2020-08-27 11:48:35 951

原创 【学习笔记】从eXeScope到汇编与反汇编、加壳与脱壳的理解

        由于博主需要对.exe文件的内部程序进行修改,因此今天面向百度编程学习了如何修改.exe文件。通过百度,笔者发现了eXeScope这款神器,并基于此神器对“汇编与反汇编”、“壳”的概念有了一定程度的了解。特写作此文,记录下自身的收获。目录汇编Assembly反汇编DisassemblyeXeScope软件介绍:壳壳的概念壳的种类加壳和脱壳技术加壳的解压原理   &nbsp.

2020-08-27 11:29:49 2324

原创 【超详细教程】阿里云+宝塔+Typecho零基础搭建个人博客全套式教程——以免费领取的ECS阿里云服务器为例

        由于博主恰好一直有着开发个人博客的想法,因此趁着闲暇之余,捣鼓了之前在阿里云免费领取的ECS云服务器。本次博客将会向大家详细讲述开发个人博客的过程及心得体会。接下来,我将会在本篇博客中展示阿里云+宝塔+Typecho搭建个人博客的详细全过程。目录前期准备第一阶段——阿里云第二阶段——宝塔页面第三阶段——Typecho博客安装前期准备     &nbsp

2020-08-24 16:39:41 854 2

原创 【谷歌插件爬虫实战】零基础不会代码想学爬虫?不用编写代码的图形界面化爬虫Web Scraper参上!——基于Google的扩展应用程序插件Web Scraper爬取B站全站榜TOP100

        2020年4月17日,博主自学爬虫已经有了一个月的时光。在这一个月里,我相继学习了爬虫基础、两个基本库(urllib库、requests库)、三大解析库(XPath库、Beautiful Soup库、pyquery库)以及Selenium库。但是在今天,通过测试谷歌插件Web Scraper进行网页爬取,发现这个小插件入门及其简单。因此,博主学了十分钟后当机立断爬取了Bilibili数据进行测试,并作此博客进行记

2020-08-21 20:09:47 641 4

原创 【反爬虫大全】爬虫学习者必须了解的当今各大网站反爬手段、反爬判断思路及绕过原理总结——以Python爬虫学习者的角度为例(长期更新...)

        由于博主对于爬虫的相关知识极度感兴趣,在大致自学完成了Python爬虫和Java爬虫的主要内容后,目前正在钻研反爬虫的原理。本文将会对反爬虫的相关知识进行总结,以方便之后在爬虫编码过程中的迅速回忆和查阅。因为博主尚且正在学习反爬虫,因此本文长期更新。目录反爬虫的概念反爬虫的原因反爬虫的简介反爬虫的划分信息校验型反爬虫User-Agent反爬虫⭐Cookie反爬虫⭐反爬虫的概念反爬虫的原因 &

2020-08-16 19:19:34 544

原创 【人工智能】基于百度AI+Python编程的简单应用:关于人像照片动漫化的分析实现(可进行批量化处理)——教你看到二次元中的自己

        前两天博主刚写过一篇文章:【人工智能】基于百度AI和Python编程的简单实现:通过QQ/Tim截图进行文本识别功能的分析实战详解——以获取百度文库付费内容为例。由于这两天博主摸鱼时又一次使用到了百度AI,因此可以对比着这两篇文章进行学习。目录前期准备百度AI前期准备相关知识前期准备:API和SDK的含义及区别相关知识前期准备:鉴权实战分析代码改写:鉴权基础模板代码改写:主要代码基础模板前期准备百度AI

2020-08-08 19:22:23 1468 1

原创 【Python网络爬虫实战篇】使用selenium+requests爬取下载高清源视频:关于爬取m3u8文件链接解析为ts视频合并成mp4视频的分析实战

        这两天博主在摸鱼时,偶然间接触到了流媒体的概念,一时间来了兴致。再加上之前博主有着七、八年的视频制作经验,深知视频素材获取的不易;以及面对各大网站付费VIP视频、超前点播视频破解的好奇。因此,打算利用自己所学的python网络爬虫的知识,通过编写代码实现获取VIP视频解析m3u8链接完成付费视频的下载功能。目录流媒体流媒体的介绍流媒体的分类m3u8是什么?VIP视频解析常用的VIP视频解析网站VIP视频解析m

2020-08-07 15:59:10 3404 2

原创 【书签百宝箱】技术宅收藏积累的所有实用性网站、技术教程、工具网站大全(长期更新...)

        随着本小叮当的书签收藏夹内的东西越来越多,为了防患于未然,决定通过本篇博客记录一下自己的百宝箱。因为未来我的书签只会越来越多,因此本篇博客长期更新,有兴趣的朋友可以手动码住!目录常用网站普通网站学习网站工具网站素材网站软件官网休闲网站常用云盘资源搜索网站娱乐搞事网站科学上网专用网站常用网站普通网站阿里云:安全稳定的云计算服务平台,点击进入阿里云登录页面。主要用于畅玩云服务器。腾讯云函数:主要用于将代

2020-08-07 12:13:48 1909

原创 记录使用Python第三方库pyinstaller将程序打包成exe的方法以及打包成功后闪退、缺少模块问题ModuleNotFoundError: No module named ‘xxx‘的解决方案

        今天下午博主在使用pyinstaller打包上篇文章《【人工智能】基于百度AI和Python编程的简单实现:通过QQ/Tim截图进行文本识别功能的分析实战详解——以获取百度文库付费内容为例》所编写的截图文本识别代码时遭遇了ModuleNotFoundError: No module named 'xxx’的问题,试了一圈解决方案,总算试出来了。遥记得几个月前在做一个小项目参加比赛时,也是同样的pyinstalle

2020-08-04 18:20:16 2002

原创 【人工智能】基于百度AI和Python编程的简单实现:通过QQ/Tim截图进行文本识别功能的分析实战详解——以获取百度文库付费内容为例

        前两天,博主在摸鱼时偶然接触到了百度AI,一时间来了兴趣。在实战测试了其中的“通用文字识别”后,发现效果还是蛮不错的。所以通过本次文章记录一下,以作备忘。前期准备百度AI前期准备工作        首先打开百度AI的官方网站(https://ai.baidu.com/),找到文字识别中的通用文字识别,点击立即使用。&nbs

2020-08-04 10:22:38 467

原创 【反爬虫】在阿里云服务器所搭建的个人博客中通过Nginx进行反爬虫测试:禁止Python爬虫直接爬取博客页面实战——以信息校验型User-Agent反爬虫为例

        对于一个爬虫学习者来说,只懂得爬虫实现而不懂得反爬虫原理那恐怕只是半吊子水平。最近,博主就在研究反爬虫。爬虫和反爬虫相当于矛和盾的关系,二者针锋相对,共同发展。        在本次反爬虫测试中,我主要用到Nginx+Postman+Pycharm。其中,Nginx是通过阿里云服务器使用宝塔Linux面板创建个人博客时内置的,本次问

2020-08-01 19:54:34 1059

原创 【Python网络爬虫实战篇】关于在青果教务网络管理系统爬取学生成绩的分析及代码展示——以郑州轻工业大学(zzuli)教务网络管理系统为例

        关于使用Python爬虫爬取教务网络管理系统的学生成绩,实际上博主在几个月前上课期间就已经写好了。记得当时是因为嫌查成绩麻烦懒得登录网页、恰好又学习了Python爬虫所以萌发了运行代码一键爬成绩的想法(我真是个小机灵鬼x懒是人类进步的根源)。接下来我先记录、分析一下当时爬取教务网络管理系统所遇到的问题,然后展示我所编写的代码。思路分析      &n

2020-07-30 13:23:06 8558 7

原创 记录在Deepin Linux 20 beta深度应用商店(安装失败:依赖关系不满足)、(一直显示等待下载)的软件无法安装问题的解决方案

        可能是由于最近一段时间博主使用Deepin Linux 20 beta操作系统安装了各种软件,而某些安装的软件损坏了Deepin20的依赖关系,因此今天深度应用商店出了问题。        刚开始是深度商店怎么都打不开,好不容易打开了又提示 [网络错误] 。我没有放在心上,选择了重启操作系统再次打开深度商店,结果发现不管下载深度商店

2020-07-29 18:04:56 10344 2

原创 Matplotlib图形参数设置之坐标图plot()主要参数配置详解及实例说明

坐标图主要参数配置流程1.导入绘图相关模块;2.生成数据;3.plot绘制图形,(选 - 线条设置)设置线linestyle或标记marker;4.(选 - 坐标轴设置 - 添加坐标标签)给x轴添加标签xlabel和y轴添加标签ylabel;5.(选 - 坐标轴设置 - 添加坐标刻度)设置x轴的刻度xlim()和y轴的刻度ylim();6.(选 - 图例设置label)设置图例legend();7.输出图形show()。# 导入绘图相关模块import matplotlib.pyplot

2020-07-20 11:55:36 1200

原创 记录在Deepin Linux上使用Jupyter/Pycharm中关于findfont: Font family [‘sans-serif‘] not found的解决方案及相关问题

        前一段时间由于身体原因,博主一直没有继续学习、自然就没有再发新的博客。今天由于身体状况持续偏好,因此解决了前一段时间一直没有解决的Python数据可视化中文乱码的问题。关于这个中文乱码问题的解决方案,应该是Deepin Linux中并没有安装Windows常用的SimHei自体所导致的。虽然网上也有许多相似的解决方案,但是我依稀记得半个月前面向百度试过各种方法均未得到解决的窘状。因此,今天在根据网上解决方案并按照

2020-07-17 19:40:59 1905

原创 记录Deepin 20 beta的安装以及在deepin 20上安装VirtualBox、Anaconda、JupyterLab的过程中出现的问题及解决方案

        由于博主最近要研究数据可视化,一不做二不休就把计算机的系统给重装了。刚开始重装的系统是通过uiso9_cn安装的Ubuntu 18.04.4镜像源做成的系统盘,但是经过一系列测试后发现,对于我的那台老机器来说Ubuntu的网速效率是真的不如Deepin。因此,我决定将原本Ubuntu的系统盘改造成Deepin的系统盘,重新装回Deepin、并且是最新版本Deepin 20 beta。Deepin 20 beta

2020-07-07 23:39:53 886

原创 【学习笔记】使用cmd命令/Java/python操作数据库MySQL的通用方法及代码展示

        针对较大规模的数据,可以使用数据库(Database)进行存储。数据库是基于数据结构来组织、存储和管理数据的仓库,每个数据库都有一个或多个不同的API用于创建、访问、管理、搜索和复制所存储的数据。目前,Oracle旗下的MySQL是最流行的关系型数据库管理系统,其具有体积小、性能高、开源免费等特点。        在使用MySQL之

2020-07-02 12:15:04 481

原创 【学习笔记】使用Java读取、写入Excel全版本(包含xls、xslx格式)通用方法及代码展示(POI)

        POI是Java编写的开源跨平台Excel处理工具,不仅提供了对Excel的操作,也提供了对Word、PowerPoint和Visio等格式的文档的操作。jar包下载        基于Maven工程的pom.xml文件配置POI如下所示:<dependency> <groupId>org.apac

2020-07-01 21:55:00 427

原创 IntelliJ IDEA 2019使用文档(三)——IDEA配置Maven项目全套式教程

四.IDEA Maven配置准备工作(下载安装jdk、下载maven)        maven官网(需要科学上网进入):http://maven.apache.org/        介绍:Maven是项目管理工具,能够对Java项目进行构建(依赖管理)。Maven是基于Java的工具,要安装Maven必须安装JDK。 &nbsp

2020-06-30 18:47:04 1166

原创 IntelliJ IDEA 2019使用文档(二)——IDEA的实用配置和常用功能、缩写

三.IDEA的设置1.主题外观设置        打开文件(File) - 设置(setting),可查看IDEA的设置。        选择外观与行为(Appearance & Behavior) - 外观(Appearance),可以更改主题。       &

2020-06-30 18:26:32 768

原创 IntelliJ IDEA 2019使用文档(一)——IDEA创建和打包普通Java项目

准备工作一.IDEA安装        官方网站:https://www.jetbrains.com/        Ultimate:商业版        Community:社区版二.IDEA卸载    &nbs

2020-06-30 17:58:39 590 1

原创 【GIS实战篇】基于ArcGIS的中国新型冠状肺炎疫情数据分布图的制作

实验目的        利用ArcGIS online等平台或软件(平台不限),通过爬虫工具或者手动收集等手段在互联网上获取疫情数据和地理数据,使用不同地图可视化方法制作全国的新冠病毒疫情地图,了解地理数据到地理信息可视化的过程,了解数据量表与可视化视觉通道之间的对应关系,进而理解空间信息可视化的意义。实验过程实验平台:ArcGIS(ArcMap 10.5版本)。实验工具:① ArcMap;② Office – E

2020-06-28 14:34:23 15953 14

原创 【Python信息可视化实战篇】基于matplotlib分析51job数据信息并制作柱状图

        前几天博主有个Python信息数据可视化的需求,但是博主学python是用来玩网络爬虫的。对于python信息数据可视化类库,也只是熟悉pyecharts。因此,便只能现学现卖直播作mai图yi。在参考着资料学习后,成功的用matplotlib完成了第一幅柱状图。准备工作1.python类库:matplotlib库(作图)2.python类库:xlrd库(导入读取excel文件)3.数据信息源文件:51p

2020-06-28 13:52:50 678

原创 使用javascript在各大视频网站一键抓取无水印m3u8格式视频并将视频下载成mp4格式(以Google抓取腾讯视频为例)

        两三天没有更新博客了,最近博主有点夏乏(其实是懒),今日在划水的时候无意中学到了使用javascrpit抓取m3u8格式视频的小技巧,因此进行延伸并作此博客进行记录。接下来,我将使用javascript在各大视频网站(腾讯、优酷、爱奇艺等)进行一键抓取无水印m3u8格式视频并将其下载到本地(下载格式为mp4格式)。本次实例中,以抓取腾讯视频为例。准备工作1.Google浏览器2.m3u8格式视频下载工具(h

2020-06-28 12:27:04 26024 20

原创 【Java网络爬虫实战篇】使用Jsoup爬取和解析王者荣耀全英雄全皮肤(思路/代码/问题分析)

        由于博主前两天刚入门Java爬虫,并且自学了Jsoup的爬取和解析方式以及输入输出流的相关知识,因此打算检验一下目前的学习成果。在一番深思熟虑(x)后,毅然打算爬取王者荣耀官网全英雄全皮肤的壁纸。爬取分析        1.首先进入王者荣耀官网英雄主页面(https://pvp.qq.com/web201605/herolist.

2020-06-25 14:35:44 819

原创 【学习笔记】Java网络爬虫实战——使用HttpClient执行请求与获取响应信息

        由于博主昨天已经学习完了Jsoup的相关知识,所以今天开始学习HttpClient的操作使用。但是在学习HttpClient时,因为是刚入门,尽管网上资料一搜一大把但是博主发现这些资料都是思路混乱、较难理解(可能是因为我原来是文科生的缘故?)。HttpClient是什么?        HttpClient(HTTP协议客户端→网

2020-06-25 10:37:21 320

原创 【学习笔记】Java网络爬虫实战——分别使用Jsoup和JsoupXpath对w3school网站进行爬取解析

        由于博主前一段时间已经自学过了Python网络爬虫,因此在自学Java网络爬虫时进展还是蛮快的。据我目前所学习的Jsoup来看,可以与Python中的request库作为参照进行学习。因此在昨天刚学完Jsoup获取网页后,今天博主便花了一上午时间对Jsoup解析网页进行了学习和分析。        首先,我们先来看一下要爬取和解析的

2020-06-24 12:22:27 601

原创 【学习笔记】Java网络爬虫实战——使用Jsoup下载图片/PDF/压缩文件

        今天博主在学习研究Java网络爬虫时总体过了一遍Jsoup的相关知识,因此对部分知识点进行了总结梳理。        在使用Jsoup下载图片、PDF和压缩文件等文件时,需要将响应转化成输出流。转化成输出流的目的是增强写文件的能力,即以字节为单位写入到指定文件。相关代码如下所示:import java.io.BufferedIn

2020-06-23 22:13:22 987

原创 记录学习Jsoup时第一次创建Maven项目时的报错(No marketplace entries found to handle maven-compiler-plugin:3.1)

        因为自学Java网络爬虫技术的需要,因此在初次学习Jsoup并接触Maven项目的创建时,博主遭遇了很多的问题。        1.首先是在创建Maven项目时,如果在文件保存的工作目录内出现同名文件(不论大小写),Maven会出现创建失败的报错。       

2020-06-22 16:32:47 1361 2

IDEA2019使用文档.pdf

IntelliJ IDEA 2019详细使用文档,由博主进行学习整理归类完成。从博主的有道云笔记中导出的IntelliJ IDEA 2019详细使用说明,能够帮助大家最大程度的掌握IDEA的全套使用方法(包括配置、Maven、Web等操作教程)。

2020-06-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除