首页 新闻 赞助 找找看

CDH5.7.0 升级Spark2.0问题

0
悬赏园豆:20 [待解决问题]

单位的CDH版本是5.7.0的 默认安装的spark是1.6.0的我想升级升spark2.0 但是有个问题想不明白,5.7.0默认的scala版本是2.10.x 但是spark官方说spark2.0只支持scala2.11.x往上的版本,这样开发spark代码会不会有问题,能不能把scala升级成2.11.x以上的版本,但是查半天查不到怎样升级scala版本的问题,有人知道请告知我一下,我也下载了CDH的spark2.0升级包,还没有进行安装,这样安装能不能行

赵十八岁的主页 赵十八岁 | 初学一级 | 园豆:1
提问于:2019-01-18 10:46
< >
分享
清除回答草稿
   您需要登录以后才能回答,未注册用户请先注册