自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 资源 (1)
  • 收藏
  • 关注

原创 window10搭建pyspark的两种方法(基于spark-3.0.0-bin-hadoop2)

最最简便的方法就是直接pip install pyspark如果安装出现timeout,可以下载pyspark-3.0.0.tar,然后离线安装方法:cd进入pyspark-3.0.0.tar解压的目录,里面有个setup.py然后运行命令:python setup.py install, 等待安装完成,所以的环境问题都一次帮你解决完。-----------------------------------------下面是笨方法--------------------------------

2020-09-04 22:17:01 1058

原创 Hadoop3.3.0完全分布式部署

一、配置hadoop1.1 总纲采用1+1+3的集群配置(一台主服务器,一台备主服务器,3台从服务器)这些配置都只是先在master1作,然后用命SCP拷贝复制到其它服务器下载最新hadoop镜像:hadoop-3.3.0解压到相应目录配置环境变量在/etc/hosts, /etc/profile,hadoop-en.sh, yarn-en.sh, mapreduce-env.sh修改文件目录权限设置免密登录配置相应文件:workers, core-site.xmlhdfs-site.x

2020-08-05 17:19:49 2706 1

转载 Ubuntu(Linux)使用Eclipse搭建C/C++编译环境

原文:http://www.cppblog.com/kangnixi/archive/2010/02/10/107636.html       入正题了。       首先是安装Eclipse,方法有两种:       第一种是通过Ubuntu自带的程序安装功能安装Eclipse,应用程序->Ubtuntu软件中心,搜Eclipse安装即可。       第二种方法是用命令:应

2012-12-19 21:15:10 359

转载 Linux, gdb 调试命令

DB是GNU开源组织发布的一个强大的UNIX下的程序调试工具,GDB主要可帮助工程师完成下面4个方面的功能:启动程序,可以按照工程师自定义的要求随心所欲的运行程序。 让被调试的程序在工程师指定的断点处停住,断点可以是条件表达式。 当程序被停住时,可以检查此时程序中所发生的事,并追索上文。 动态地改变程序的执行环境。 不管是调试Linux内核空间的驱动还是调试用户空间的应用程序,掌握gd

2012-12-19 20:17:21 628

转载 图文详解使用Universal USB Installer制作usb闪盘(U盘)linux系统安装盘

原文转自:http://www.seekxiu.com/article.aspx?id=7105 大家可能曾经使用usboot制作dos U盘启动盘,用Windows 7 USB/DVD Download Tool制作过windows7 usb系统安装盘,那如何快捷地制作linux U盘系统安装盘呢?下面由寻修网http://www.seekxiu.com/技术员以ubuntu-10.04

2012-12-15 11:59:25 1369 1

转载 char *strchr(char *str,char character)函数

函数原型:extern char *strchr(char *str,char character)参数说明:str为一个字符串的指针,character为一个待查找字符。        所在库名:#include   函数功能:从字符串str中寻找字符character第一次出现的位置。  返回说明:返回指向第一次出现字符character位置的指针,如果没找到则

2012-12-14 14:04:07 912

window10搭建pyspark(基于spark-3.0.0-bin-hadoop2).docx

window10搭建pyspark的两种方法(基于spark-3.0.0-bin-hadoop2) 方法一: 最最简便的方法就是直接pip install pyspark 如果安装出现timeout,可以下载pyspark-3.0.0.tar,然后离线安装 方法:cd进入pyspark-3.0.0.tar解压的目录,里面有个setup.py 然后运行命令:python setup.py install, 等待安装完成,所以的环境问题都一次帮你解决完。

2020-09-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除