单位的CDH版本是5.7.0的 默认安装的spark是1.6.0的我想升级升spark2.0 但是有个问题想不明白,5.7.0默认的scala版本是2.10.x 但是spark官方说spark2.0只支持scala2.11.x往上的版本,这样开发spark代码会不会有问题,能不能把scala升级成2.11.x以上的版本,但是查半天查不到怎样升级scala版本的问题,有人知道请告知我一下,我也下载了CDH的spark2.0升级包,还没有进行安装,这样安装能不能行