网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
05月17日
漏签
0
天
spark吧
关注:
5,585
贴子:
14,126
看贴
吧主推荐
游戏
3
回复贴,共
1
页
<<返回spark吧
>0< 加载中...
求大佬来个hive on spark的python代码demo
只看楼主
收藏
回复
happy不断则乱
初级粉丝
1
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
百度出来的就没看到真正的hive on spark,特来spark吧急等大佬指导一下
happy不断则乱
初级粉丝
1
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
认真的在线等
2025-05-17 07:04:53
广告
加米谷大数据
铁杆吧友
8
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
hive on Spark
最通俗的说就是把Spark作为Hive的计算引擎,取代了之前的mapReduce。
由于Spark本身比MapReduce要先进,速度要快百倍以上,所以此举大大提高了Hive查询的性能。
Spark的效率加上hive的易操作,入门要求低,使得大数据离线计算得到非常大的普及。
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示