- 博客(2)
- 资源 (4)
- 收藏
- 关注
原创 Spark Learning(RDD计算)
RDD计算原始的RDD经过一系列转换后,会在最后一个RDD上触发一个动作,这个动作生成一个 job , job 被划分为一批计算任务 task 后,会被提交到集群上的计算节点,计算节点中执行计算逻辑的部分称为 executor 。 Spark中的 task 分为 ShuffleMapTask 和 ResultTask 两种。DAG最后一个阶段为每个结果的 Partition 生成一个 ResultT
2017-11-08 20:50:50 213
SpringMVC+Hibernate+Maven开发案例
这是基于Maven搭建的并结合SpringMVC和Hibernate框架实现的Web应用程序,具体功能是通过前端请求从而将数据持久化到MySQL数据库。
2017-12-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人