各位大神,请问如果spark有正在运行的作业,这时我修改spark_daemon_memory的内存值,由10G扩容到20G,然后重启jobhistory进程,会不会影响已有的spark作业的运行呢?
期望有大佬回复,感谢!