判断题Cluster Manager负责整个集群的统一资源管理,Worker节点中的Executor是应用执行的主要进程,内部含有多个Task线程以及内存空间。
判断题在数据科学应用中,数据工程师可以利用Spark进行数据分析与建模。
判断题Spark计算框架在处理数据时,所有的中间数据都保存在磁盘中。
判断题Worker Node为执行器的工作单元。
多项选择题下列选项中,属于Spark生态圈的组件有()。
A.Spark SQLB.Spark StreamingC.GraphXD.MLlib