1.Spark.read.jdbc(*****)的方式默认是走mysql自带的优化器?特定策略下才走Spark的Catalyst的优化器?
所以Spark.read.jdbc的效率和jdbc的效率相当?
2.mysql命令行查询理论上和jdbc查询的效率相当?
所以mysql存储过程查询数据和Spark.read.jdbc(复杂的Sql)效率也相当,或者sparkSql更快?
spark.read.jdbc也会走索引的
3.以mysql为存储组件,使用单节点Spark作为mysql的查询引擎,有什么弊端?