- 博客(3)
- 问答 (1)
- 收藏
- 关注
原创 sparksql on hive实践
hive-site.xml拷贝到spark的conf目录下后,编程测试如下: import org.apache.spark._ object exptest { def main(args: Array[String]){ System.setProperty("hadoop.home.dir", "C:\\winutils\\") var masterUrl = "
2016-12-05 11:17:03 723
原创 记一次Hive元数据管理问题的处理过程
工作中需要在hive中存储数据,sparksql操作数据。按照网上的教程,将hive的conf目录下hive-default.xml拷贝到spark的conf目录下(当前hive下没有hive-site.xml,当时没有意识到这个会有问题),启动spark shell ./bin/spark-shell --master yarn-client --driver-class-path lib/m
2016-12-02 16:32:04 4239
空空如也
云上的Hadoop访问远程Linux主机问题
2016-06-07
TA创建的收藏夹 TA关注的收藏夹
TA关注的人