首页
新闻
会员
周边
捐助
园子
·
关注
·
粉丝
·
会员
·
随便看看
·
消息
欢迎,请先
登录
或者
注册
。
登录
/
注册
闪存
博客
发言
小组
投递
新闻
提问
博问
添加
收藏
文库
问题反馈
问题列表
我关注的
我的博问
博问标签
提问
回答
被采纳
0
回答数
spark问题求助
各位大神,请问如果spark有正在运行的作业,这时我修改spark_daemon_memory的内存值,由10G扩容到20G,然后重启jobhistory进程,会不会影响已有的spark作业的运行呢?
纵八
园豆:202
排名:1500名之外
博问搜索
关于博问
»
博问帮助
»
发现问题
»
我有建议