Spark 采用 RDD 以后能够实现高效计算的原因主要在于?( )
高效的容错性
中间结果持久化到内存,数据在内存中的多个
存放的数据可以是 Java 对象,避免了不必要的对象序列化和反序列化
现有容错机制:数据复制或者记录日志