一直搞不清楚spark中的RDD中划分出来的partition是在哪一步进行的,是HadoopRDD里面的
val inputSplits = inputFormat.getSplits(jobConf, minPartitions)过程形成了RDD里面的partition吗?
一直搞不清楚spark中的RDD中划分出来的partition是在哪一步进行的,是HadoopRDD里面的
val inputSplits = inputFormat.getSplits(jobConf, minPartitions)过程形成了RDD里面的partition吗?