永发信息网

sparkcore spark sql 什么情况下使用

答案:2  悬赏:70  手机版
解决时间 2021-04-06 09:29
  • 提问者网友:活着好累
  • 2021-04-05 11:45
sparkcore spark sql 什么情况下使用
最佳答案
  • 五星知识达人网友:妄饮晩冬酒
  • 2021-04-05 13:20
Spark Core就是一个通用的批处理计算引擎,用来开发离线的批处理作业,它与Hadoop的MapReduce的区别就是,spark core基于内存计算,在速度方面有优势,尤其是机器学习的迭代过程。
Spark SQL就是Spark生态系统中一个开源的数据仓库组件,可以认为是Hive在Spark的实现,用来存储历史数据,做OLAP、日志分析、数据挖掘、机器学习等等
全部回答
  • 1楼网友:思契十里
  • 2021-04-05 14:48
支持shark和sparksql 。 但是,随着spark的发展,其中sparksql作为spark生态的一员继续发展,而不再受限于hive,只是兼容hive;而hive on spark是一个hive的发展计划,该计划将spark作为hive的底层引擎之一,也就是说,hive将不再受限于一个引擎,可以采用map- reduce、tez、spark等引擎。
我要举报
如以上回答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
点此我要举报以上问答信息
大家都在看
推荐资讯