centos7.6的python和yum拯救包.rar
centos7.6的修复python拯救yum的rpm包,整体已经打包,内含拯救说明,完美解决centos7.6环境的yum无法使用的问题,内含阿里yum源,适合小白使用
zabbix一键部署脚本
zabbix的server端一键部署脚本,再也不用担心被墙了建议使用centos7版本,zabbix版本4.4子版本1自动部署方便快捷
kettle-manager0.4.0解压即用百度网盘地址.txt
急速体验能让你尽快的体验本项目的功能,判断这是否是你所需要的。
1、集成安装包直接集成了kettle、mysql、kettle-manager,这样能减低对部署人员的技术要求。
2、下载集成安装包,按安装包中的文档操作即可,很简单几步,还配有截图,应该算是没有难度了。
3、关键提示:执行init.bat脚本是要采用管理员模式运行,否则无法正常安装mysql服务。
kettle-manager0.4.0集成安装包.zip
kettle-manager0.4.0集成安装包,使用的kettle5.4版本因为kettle文件过大不能上传,把kettle5.4主文件目录改为data-integration放到kettle-manager目录下,然后直接按要求用即可
myutils-0.1.0.jar & ojdbc14.jar.zip
马进举的kettle-manager缺少的两个包myutils-0.1.0.jar & ojdbc14.jar
码云地址:https://gitee.com/majinju/kettle-manager
kafka-eagle-web-1.4.3-bin.tar.gz
已编译的kafka-eagle1.4.3直接解压配置后使用具体配置文件地址https://blog.csdn.net/qq_19524879/article/details/82848797
kafka-eagle-1.4.3 .zip源码包直接build.sh编译
kafka-eagle-1.4.3 .zip源码包直接build.sh编译,安装配置参考地址https://blog.csdn.net/qq_19524879/article/details/82848797
hadoop-lzo-0.4.20.jar
hadoop支持LZO压缩配置 将编译好后的hadoop-lzo-0.4.20.jar 放入hadoop-2.7.2/share/hadoop/common/
core-site.xml增加配置支持LZO压缩
io.compression.codecs
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.DefaultCodec,
org.apache.hadoop.io.compress.BZip2Codec,
org.apache.hadoop.io.compress.SnappyCodec,
com.hadoop.compression.lzo.LzoCodec,
com.hadoop.compression.lzo.LzopCodec
io.compression.codec.lzo.class
com.hadoop.compression.lzo.LzoCodec
apache-tez-0.9.1-bin.tar.gz
用Hive直接编写MR程序,假设有四个有依赖关系的MR作业,上图中,绿色是Reduce Task,云状表示写屏蔽,需要将中间结果持久化写到HDFS。
Tez可以将多个有依赖的作业转换为一个作业,这样只需写一次HDFS,且中间节点较少,从而大大提升作业的计算性能
kafka-eagle-web-1.3.4-bin.tar.gz
已编译的kafka-eagle1.3.2直接解压配置后使用具体配置文件地址https://blog.csdn.net/qq_19524879/article/details/82848797
kafka-eagle-bin-1.3.2.tar.gz
已编译的kafka-eagle1.3.2直接解压配置后使用具体配置文件地址https://blog.csdn.net/qq_19524879/article/details/82848797
kafka-manager-1.3.3.22.zip
已编译 Kafka-Manager-1.3.3.22
linux下直接解压解压kafka-manager-1.3.3.22.zip到/opt/module目录
[root@hadoop102 module]$ unzip kafka-manager-1.3.3.22.zip
4)进入到/opt/module/kafka-manager-1.3.3.22/conf目录,在application.conf文件中修改kafka-manager.zkhosts
[root@hadoop102 conf]$ vim application.conf
修改zookeeper地址为:
kafka-manager.zkhosts="hadoop102:2181,hadoop103:2181,hadoop104:2181"
5)启动KafkaManager
[root@hadoop102 kafka-manager-1.3.3.22]$ nohup bin/kafka-manager -Dhttp.port=7456 >/opt/module/kafka-manager-1.3.3.22/start.log 2>&1 &
6)在浏览器中打开
备注:指定端口号看启动过程中 "-Dhttp.port=7456" 端口可以自己设置
http://hadoop102:7456