找考题网-背景图
问答题

简答题 描述Spark集群计算中RDD的含义和作用。

【参考答案】

Spark的核心概念是RDD (resilientdistributed dataset),指的是一个只读的,可分区的分布式数据集,这个数据集的全部或部分可以缓存在内存中,在多次计算间重用。Spark解决迭代计算的主要实现思想就是RDD,把所有计算的数据保存在分布式的内存中。......

(↓↓↓ 点击‘点击查看答案’看完整答案 ↓↓↓)