多选题

Spark采用RDD以后能够实现高效计算的原因主要在于?

A. 高效的容错性
B. 中间结果持久化到内存,数据在内存中的多个
C. 存放的数据可以是Java对象,避免了不必要的对象序列化和反序列化
D. 采用数据复制实现容错

查看答案
该试题由用户223****11提供 查看答案人数:26773 如遇到问题请联系客服
正确答案
该试题由用户223****11提供 查看答案人数:26774 如遇到问题请联系客服
热门试题
rdd是spark中个哪个架构提出的概念() 关于Spark中RDD的描述不准确的是?() spark中的rdd相当于java中的()概念 Spark只有键值对类型的RDD才能设置分区方式。() 关于Spark中RDD的描述不正确的是?() spark架构中的rdd相当于java中的()概念 Spark Streming中()函数可以通过对源DStream的每RDD应用RDD-to-RDD函数返回一个新的DStream,这可以用来在DStream做任意RDD操作。 如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()。 Spark作业的每个阶段被Spark环境分解为多个任务,任务并行运行在分布于中的RDD上() spark生态圈没有能够实时计算的框架 Spark可以实现哪些形式的分布式计算() Spark中的每个RDD一般情况下是由()个分区组成的。 以下哪种方法可以让Spark不自定义分区也能对任何类型RDD 简单重分区() 以下选项组合后能够执行spark程序的是,换句话说spark程序计算结果必须包含哪几个算子() Rdd不能够转换成DataFrame DataFrame不能够转换成Rdd RDD(ResilientDistributedDataset)叫做分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合 Spark Streaming能够和()无缝集成 与HadoopMapReduce计算框架相比,Spark所采用的Executor具有哪些优点? 全球能源互联网能够突破时空约束,使清洁能源实现高效利用,主要表现在()
购买搜题卡会员须知|联系客服
会员须知|联系客服
关注公众号,回复验证码
享30次免费查看答案
微信扫码关注 立即领取
恭喜获得奖励,快去免费查看答案吧~
去查看答案
全站题库适用,可用于聚题库网站及系列App

    只用于搜题看答案,不支持试卷、题库练习 ,下载APP还可体验拍照搜题和语音搜索

    支付方式

     

     

     
    首次登录享
    免费查看答案20
    登录成功
    首次登录已为您完成账号注册,
    可在【个人中心】修改密码或在登录时选择忘记密码
    账号登录默认密码:手机号后六位