自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

lance~crazy

思维~比内容本身更重要!!

  • 博客(372)
  • 资源 (4)
  • 收藏
  • 关注

原创 设置sql_mode

记录sql_mode设置

2022-11-26 13:53:57 257 1

原创 Datawhale 1月leetcode

AC 榜Nick1.101.111.121.13∑lance3423一个胖毛3332我3433Luna1111呃,嗯1452余柳成荫3744跫音2113哆来咪3110日期题目难度描述类型思路完成1.4234. 回文链表简单给你一个单链表的头节点 head ,请你判断该链表是否为回文链表。如果是,返回 true ;否

2022-01-14 00:27:26 518

转载 python + flash入门

Flask简介Flask是一个轻量级的可定制框架,使用Python语言编写,较其他同类型框架更为灵活、轻便、安全且容易上手。它可以很好地结合MVC模式进行开发,开发人员分工合作,小型团队在短时间内就可以完成功能丰富的中小型网站或Web服务的实现。Flask是目前十分流行的web框架,采用Python编程语言来实现相关功能。Flask框架的主要特征是核心构成比较简单,但具有很强的扩展性和兼容性,程序员可以使用Python语言快速实现一个网站或Web服务。一般情况下,它不会指定数据库和模板引擎等对象,用户

2021-12-27 21:36:43 4206

转载 简单前端入门 + Vue

1.Web1.1 什么是Web​ Web前端主要是通HTML,CSSJS,ajax,DOM等前端技术,实现网站在客服端的正确显示及交互功能。1.2 Web 标准构成主要包括结构(Structure)、表现(Presentation)和行为(Behavior)三个方面。结构标准:结构用于对网页元素进行整理和分类,对于网页来说最重要的一部分 。通过对语义的分析,可以对其划分结构。具有了结构的内容,将更容易阅读.表现标准:表现用于设置网页元素的版式、颜色、大小等外观样式,主要指的是CSS 。为

2021-12-27 21:34:13 1936

转载 用户及物料画像更新

自动化构建用户及物料画像本节内容主要讲的是上图中红框框起来的部分,也就是离线自动化构建用户和物料的画像,这部分内容在新闻推荐系统中是为系统源源不断添加新物料的途径,由于我们的物料是通过爬虫获取的,所以还需要对爬取的数据进行处理,也就是构造新闻的画像。对于用户侧的画像则是需要每天将新注册的用户添加到用户画像库中,对于在系统中产生了行为的用户,我们还需要定期的更新用户的画像(长短期)。下面分别从物料侧和用户侧两个方面来详细解释这两类画像在系统中是如何自动化构建的。物料侧画像的构建新物料来源首先要说的就是

2021-12-22 22:21:27 256

转载 scrapy爬取新闻内容

Scrapy的简介与安装Scrapy 是一种快速的高级 web crawling 和 web scraping 框架,用于对网站内容进行爬取,并从其页面提取结构化数据。spiderspider是定义一个特定站点(或一组站点)如何被抓取的类,包括如何执行抓取(即跟踪链接)以及如何从页面中提取结构化数据(即抓取项)。换言之,spider是为特定站点(或者在某些情况下,一组站点)定义爬行和解析页面的自定义行为的地方。XpathXPath 是一门在 XML 文档中查找信息的语言,XPath 可用来在 XM

2021-12-22 20:37:42 1546

转载 Redis 安装与基础(python)

Redis 基础简介:https://github.com/topics/datawhaleRedis(Remote Dictionary Server ),即远程字典服务,是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库。由于是内存数据库,读写非常高速,可达10w/s的评率,所以一般应用于数据变化快、实时通讯、缓存等。但内存数据库通常要考虑机器的内存大小。Redis 是完全开源免费的,遵守 BSD 协议,是一个灵活的高性能 key-value 数

2021-12-18 20:48:48 510

转载 MongoDB安装与基础

MongoDB存储画像的一个主要原因就是方便扩展,因为画像内容可能会随着产品的不断发展而不断的更新。MongoDB语法(比如增删改查,排序等),从MongoDB中获取用户、新闻画像来构造相关特征MongoDB简介MongoDB 是由C++语言编写的,是一个基于分布式文件存储的开源数据库系统。在高负载的情况下,添加更多的节点,可以保证服务器性能。MongoDB 旨在为WEB应用提供可扩展的高性能数据存储解决方案。MongoDB 将数据存储为一个文档,数据结构由键值(key=>value)对组成

2021-12-18 20:38:58 470

原创 Mysql 安装与基础

一、 Ubuntu下安装MySQL安装教程是在Ubuntu20.04下进行的,安装的MySQL版本为8.0.27。1.1 安装sudo apt install mysql-server mysql-client在输入密码后,再输入yes即可开始安装。安装完成后,通过运行命令mysql -V查看版本号:lyons@ubuntu:~$ mysql -Vmysql Ver 8.0.27-0ubuntu0.20.04.1 for Linux on x86_64 ((Ubuntu))验证MySQ

2021-12-18 20:26:43 940

原创 常见数据库基础和python基本使用(推荐领域常见)

ubuntu 18[Mysql 安装与基础][MongoDB 安装与基础][Redis 安装与基础]

2021-12-18 20:21:24 1038

原创 【01】熟悉新闻推荐系统基本流程

0 linux 走通流程python环境创建conda虚拟环境: conda create -n RL --clone base安装依赖文件: pip install -r requirements.txtubuntu数据库环境(对应机子百度)安装 Mysql 基础安装 MongoDB安装 Redis基础ubuntu前端环境配置安装node, 推荐安装v8.17.0版本(已经放到了项目目录中)安装前端环境依赖:npm install -g cnpm --registry=h

2021-12-14 23:06:49 1128

原创 自然语言处理---情感分析(1)【baseline 从RNN开始】

情感分析 baseline数据集 – 电影评论数据集:IMDb数据集 ----- 数据由评论的原始字符串和情感组成,“pos”表示积极情绪,“neg”表示消极情绪。模型:RNN(默认有基础)[0时,表示预测为负面情绪, 类似分类问题]ht=RNN(xt,ht−1)h_t = \text{RNN}(x_t, h_{t-1})ht​=RNN(xt​,ht−1​)[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KKlgGZVV-1631697478974)(./ass

2021-09-15 17:18:34 669

原创 Leetcode 算法时间复杂度总结

时间复杂度算法数据范围O(1)1. 哈希O(logn)1. 二分2. 并查集(会更低)3. 快速幂4. 最大公因数O(n)1. 差分2. 前缀和(会更低)3. 双指针4. 桶排序5. 单调栈6. 单调队列(滑动窗口)7. bfs / dfs8. 拓扑排序9. 欧拉路10. tarjan 求连通分量11. KMP12. 字典树50000O(nlogn)1. 堆2. ST表3. 线段树4. 树状数组5. 二叉搜索树6. 归并、快速排序7. 最短路8. 最小生...

2021-08-31 22:13:47 409

原创 Transformer in NLP(4)【图解 GPT-2】

什么是语言模型在 图解 Word2Vec 中,我们了解到语言模型基本上是一个机器学习模型,它可以根据句子的一部分预测下一个词。最著名的语言模型就是手机键盘,它可以根据你输入的内容,提示下一个单词。4-word2vec.webp从这个意义上讲,GPT-2 基本上就是键盘应用程序中预测下一个词的功能,但 GPT-2 比你手机上的键盘 app 更大更复杂。GPT-2 是在一个 40 GB 的名为 WebText 的数据集上训练的,OpenAI 的研究人员从互联网上爬取了这个数据集,作为研究工作的一部分。从存

2021-08-24 11:05:36 259

原创 Transformer in NLP(2)【图解 Bert】

图解BERT前言BERT在2018年出现:如何最好地表示单词和句子,从而最好地捕捉基本语义和关系?NLP 社区已经发布了非常强大的组件,你可以免费下载,并在自己的模型和 pipeline 中使用。BERT的发布是这个领域发展的最新的里程碑之一,这个事件标志着NLP 新时代的开始。BERT模型打破了基于语言处理的任务的几个记录。在 BERT 的论文发布后不久,这个团队还公开了模型的代码,并提供了模型的下载版本,这些模型已经在大规模数据集上进行了预训练。这是一个重大的发展,因为它使得任何一个构建构建机

2021-08-23 10:37:43 205

原创 Transformer in NLP(2)【图解 transformer】

图解transformer前言2017 年,Google 提出了 Transformer 模型,用 Self Attention 的结构,取代了以往 NLP 任务中的 RNN 网络结构,在 WMT 2014 Englishto-German 和 WMT 2014 English-to-French两个机器翻译任务上都取得了当时 SOTA 的效果。在 Transformer 中,所有 time step 的数据,都是经过 Self Attention 计算,使得整个运算过程可以并行化计算。从整体宏观

2021-08-18 21:37:44 449

原创 Transformer in NLP(1)【seq2seq 到 Attention】

seq2seq模型常用于生成任务上:机器翻译、文本摘要、图像描述生成。谷歌翻译在 2016 年年末开始使用这种模型相关开创性论文:Sutskever 2014年 Sequence to Sequence Learningwith Neural NetworksCho等 2014年 Learning Phrase Representations using RNN Encoder–Decoderfor Statistical Machine Translation进一步理解细节se

2021-08-17 16:54:07 107

原创 Transformer in NLP(0)【预训练与Bert概览】

一、如何科学的微调预训练:当 Target model 中的全部/部分参数在见到 Target data 之前被训练过微调预训练模型分类无监督 + 大规模数据预训练(bert, roberta, xlnet)无监督 + domain数据预训练(用wikipedia数据做问答,用wiki数据做预训练)有监督 + 相似任务预训练(要对句子做二分类,可以先对短语二分类、文档二分类)有监督 + 相关数据、任务预训练(要对X做句法分析,由于这个数据标注了实体,那么先对实体标注做预训练)多任务学习(将多

2021-08-17 15:10:41 145

原创 李宏毅机器学习【深度学习】(18)【 GNN】

GNNspatial-based GNNNN4GDCNNDiffusion-convolution Neural NetworkMoNET(Mixture Model Networks)GraphSAGEGATGraph Attention NetworksGINGraph Isomorphism Network

2021-08-16 14:50:02 310

原创 李宏毅机器学习【深度学习】(17)【 LSTM 框架补充与应用】

LSTMLearning Targetcross entropyLearningBackpropagation through time (BPTT)RNN - based network is not always easy to learnThe error surface is roughthe error surface is eigher very flat or very steep.clipping : 当gradient > 15, 另gradient = 15

2021-08-12 12:40:38 286

原创 李宏毅机器学习【深度学习】系列【1- 16】

李宏毅机器学习【深度学习】(1)【回归】李宏毅机器学习【深度学习】(2)【偏差方差】李宏毅机器学习【深度学习】(3)【梯度下降】李宏毅机器学习【深度学习】(4)【反向传播】李宏毅机器学习【深度学习】(5)【鞍点与局部最优】李宏毅机器学习【深度学习】(6)【超参 batch 的选取】李宏毅机器学习【深度学习】(7)【RMSProp的产生与两种常用learing rate 的选取】李宏毅机器学习【深度学习】(8)【mse和cross-entropy对比 与 batch normalization】

2021-08-03 10:15:40 312

原创 李宏毅机器学习【深度学习】(16)【RNN: LSTM 框架】

文章目录Recurrent Neural Network(RNN)slot fillingproblemRNNRNN 变形RNN 进阶 -- Long Short-term Memory(LSTM)概念LSTM formulationLSTM exampleLSTM frameRecurrent Neural Network(RNN)slot filling[ticket booking systemslot:destinationtime of arrivalword encoding

2021-08-03 09:19:34 333

原创 李宏毅机器学习【深度学习】(15)【Spatial Transformer Layer】

#spatial transformer layerwhyCNN is not invariant to scaling and rotation.can also tranform feature maphow to transform an image/feature mapimage transformationExpansion, Compression, TranslationrotationProblem不能gradient descentinterpola

2021-08-03 07:54:38 479

转载 【力扣】链表问题总结

文章目录链表主要代码面试问题总结链表劣势面试常碰见以下问题解决办法倒数第 k 个元素问题获取中间元素的问题是否存在环的问题如何判断环的长度呢reference链表主要代码#include <bits/stdc++.h>using namespace std;//定义一个结点模板template<typename T>struct Node { T data; Node *next; Node() : next(nullptr) {} Node(const T

2021-08-02 21:41:22 151

原创 李宏毅机器学习【深度学习】(14)【word-embedding】

文章目录word embedding --- unsupervised learning词编码类型count basedPrediction basedprediction based 变形multi domain embeddingdocument embeddingword embedding — unsupervised learning词编码类型1 - of - N encodingword classword embeddingcount based1.pngPre

2021-08-02 12:47:13 151

原创 李宏毅机器学习【深度学习】(13)【self-attention】

文章目录self attention 按问题分类初识 self-attention深入了解 self - attention 架构使用矩阵来表示self - attentionMulti-head self-attentionQ:no position information in self-attentionself-attention 应用self-attention vs cnnself-attetnion vs rnnself-attention for graphMORE: 进阶self att

2021-08-01 10:12:41 125

原创 leetcode / 机试c++中常用命令【菜鸟专用】

描述规则函数参数 vector 声明void function(vector & nums);对 vector 排序sort(nums.begin(), nums.end());构造 hash 表与增、删、查、结束【unordered_set】a. unordered_set s; b. s.insert(x); c. s…erase(x); d. s.find(x); e. if(s.find(x) != s.end());遍历迭代器中的所有元素a. ...

2021-07-30 17:22:59 338

原创 【力扣】数据结构入门【7天32题数据结构入门】

Frame7天32题概览代码217. 存在重复元素53. 最大子序和1. 两数之和88. 合并两个有序数组7天32题Thu 2912:00Fri 3012:00Sat 3112:00August12:00Mon 0212:00Tue 0312:00Wed 0412:00Thu 05已完成 计划中 现有任务规划与进程概览题目难度描述类型思路217. 存在重复元素简单给定一个整数数组,判断是否存在重复元素。如果存在一值

2021-07-30 17:22:08 222

原创 李宏毅机器学习【深度学习】(12)【深度学习强力的解释2】

普遍性定理过去有一个理论告诉我们说,任何continuous function,它都可以用一层neural network来完成(只要那一层只要够宽的话)。这是90年代,很多人放弃做deep learning的原因,只要一层hidden layer就可以完成所有的function(一层hidden layer就可以做所有的function),那做deep learning的意义何在呢?,所以很多人说做deep是很没有必要的,我们只要一个hidden layer就好了。但是这个理论没有告诉我们的是,它只

2021-07-30 08:48:43 187

原创 李宏毅机器学习【深度学习】(11)【深度学习强力的解释】

问题1:越深越好?问题2:矮胖结构 v.s. 高瘦结构真正比较deep和shallow比较shallow model较好还是deep model较好,在比较的时候一个前提就是调整shallow和Deep让他们的参数是一样多,这样就会得到一个矮胖的模型和高瘦的模型。这个实验的后半段的实验结果是:我们用5层hidden layer,每层2000个neural,得到的error rate是17.2%(error rate是越小越好的)而用相对应的一层的模型,得到的错误率是22.5%,这两个都是对应的拥

2021-07-26 09:16:56 237

原创 李宏毅机器学习【深度学习】(10)【cnn 理解及应用】

CNN学到了什么?分析input第一个filter是比较容易的,因为一个layer每一个filter就是一个3*3的mmatrix,对应到3 *3的范围内的9个pixel。所以你只要看到这个filter的值就可以知道说:它在detain什么东西,所以第一层的filter是很容易理解的,但是你没有办法想要它在做什么事情的是第二层的filter。在第二层我们也是3 *3的filter有50个,但是这些filter的input并不是pixel(3 *3的9个input不是pixel)。而是做完convolut

2021-07-25 11:57:25 317

原创 李宏毅机器学习【深度学习】(9)【cnn 框架】

为什么用CNN你可能觉得CNN运作很复杂,但事实上它的模型是要比DNN还要更简单的。我们就是用power-knowledge 去把原来fully connect layer中一些参数拿掉就成了CNN。Small region大部分的pattern其实要比整张的image要小,对一个neural来说,假设它要知道一个image里面有没有某一个pattern出现,它其实是不需要看整张image,它只要看image的一小部分。Same Patterns[外链图片转存中…(img-4kopf0GQ-162

2021-07-24 22:54:47 205 3

转载 神经网络的可解释性综述【A Survey on Neural Network Interpretability】

人工智能可解释性的背景意义1.1 什么是可解释性Interpretability (of a DNN) is the ability to provide explanations in understandable terms to a human. F Doshi-Velez & B Kim, 2017解释(Explanations),是指需要用某种语言来描述和注解理想情况下,严谨的数学符号-逻辑规则是最好的解释(D Pedreschi et al., 2019)。实际上人们往往不强求“

2021-07-24 22:48:46 1235

原创 李宏毅机器学习【深度学习】(8)【mse和cross-entropy对比 与 batch normalization】

classification as regressionsoftmax:让大的值和小的值差距更大cross - entropybatch normalization(在cnn中可以起到很大的作用)change landscape给不同dimention有同样的数值范围 — 》好的error surfacefeature normalization---->batch normalization — batch size 较大让网络自己来训练不同维度的权重—》 testin

2021-07-24 19:44:51 175

原创 李宏毅机器学习【深度学习】(7)【RMSProp的产生与两种常用learing rate 的选取】

Adaptive leaning rateloss 不在下降可能不是因为陷入了critical point,而gradient 仍然很大如果卡住了,去计算norm of gradient,看是否陷入local minimumerror surface [convex]** different parameters need different learning rate**RMSProp:最常用的 optimization 策略:adam:RMSProp + Momentummoment

2021-07-24 15:07:34 133

原创 李宏毅机器学习【深度学习】(6)【超参 batch 的选取】

batch为什么要用batchbig batch 不一定比small batch 花时间更长gpu parallel computing 1 - 1000 可能计算时间相差不大time(60) > time(1)num(5000/60) << num(5000/1)optimization fails“Noisy” update is better for training每次挑batch时候会shufflesmall batch is better for t

2021-07-23 21:18:09 106

原创 李宏毅机器学习【深度学习】(5)【鞍点与局部最优】

optimizationsaddle point (critical point)导致梯度更新失败使用泰勒展开式中 Hessian 来判断是否是saddle pointH may tell us parameter update direction实际过程中不可能算 hessian ,没人用该方法逃离saddle pointsaddle point 和 local minima 谁更常见二维上的local minima 在三维上可能是一个saddle point后面的明天更新.

2021-07-22 00:16:52 301

原创 李宏毅机器学习【深度学习】(4)【反向传播】

反向传播损失函数(Loss function)是定义在单个训练样本上的,也就是就算一个样本的误差,比如我们想要分类,就是预测的类别和实际类别的区别,是一个样本的,用L表示。代价函数(Cost function)是定义在整个训练集上面的,也就是所有样本的误差的总和的平均,也就是损失函数的总和的平均,有没有这个平均其实不会影响最后的参数的求解结果。总体损失函数(Total loss function)是定义在整个训练集上面的,也就是所有样本的误差的总和。也就是平时我们反向传播需要最小化的值。[外链图片

2021-07-18 21:39:44 91

原创 李宏毅机器学习【深度学习】(3)【梯度下降】

什么是梯度下降法?在第二篇文章中有介绍到梯度下降法的做法,传送门:机器学习入门系列02,Regression 回归:案例研究Review: 梯度下降法在回归问题的第三步中,需要解决下面的最优化问题:θ∗=arg min⁡θL(θ)(1)\theta^∗= \underset{ \theta }{\operatorname{arg\ min}} L(\theta) \tag1θ∗=θarg min​L(θ)(1)LLL :lossfunction(损失函数)θ\thetaθ

2021-07-17 00:49:10 102

原创 李宏毅机器学习【深度学习】(2)【偏差方差】

Error的来源[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LDEIJLqk-1626453883494)(res/chapter5-1.png)]从上节课测试集数据来看,Average ErrorAverage\ ErrorAverage Error 随着模型复杂增加呈指数上升趋势。更复杂的模型并不能给测试集带来更好的效果,而这些 ErrorErrorError 的主要有两个来源,分别是 biasbiasbias 和 variancevarianc

2021-07-17 00:47:31 135

数值分析实验, 关于Hermite插值, 原创手打

数值分析实验, 关于Hermite插值, 原创手打, 内涵公式, 伪代码, Hermite具体实现, 以及程序编写思想与思路, 举例说明

2018-10-23

数值分析实验, 关于误差的影响, 附伪代码, 原创手打

数值分析实验, 关于误差的影响, 附伪代码, 原创手打, 关于计算机中一些关于误差的分析和介绍,以小数减小数所引起的误差为例子进一步分析,关于数值分析中的误差介绍

2018-10-23

sas语言基础(源码)(附ppt)

sas程序附sas课件ppt,适合0基础快速入手学习sas语言。

2018-07-10

karate with class label

The file karate.gml contains the network of friendships between the 34 members of a karate club at a US university, as described by Wayne Zachary in 1977. If you use these data in your work, please cite W. W. Zachary, An information flow model for conflict and fission in small groups, Journal of Anthropological Research 33, 452-473 (1977).

2018-06-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除