登录/
注册
下载APP
帮助中心
首页
考试
APP
当前位置:
首页
>
查试题
>
职业技能
>
大数据工程技术人员
>
理论知识
>
Spark采用RDD以后能够实现高效计算的原因主要在于?
多选题
Spark采用RDD以后能够实现高效计算的原因主要在于?
A. 高效的容错性
B. 中间结果持久化到内存,数据在内存中的多个
C. 存放的数据可以是Java对象,避免了不必要的对象序列化和反序列化
D. 采用数据复制实现容错
查看答案
该试题由用户223****11提供
查看答案人数:26773
如遇到问题请
联系客服
正确答案
该试题由用户223****11提供
查看答案人数:26774
如遇到问题请
联系客服
搜索
热门试题
rdd是spark中个哪个架构提出的概念()
关于Spark中RDD的描述不准确的是?()
spark中的rdd相当于java中的()概念
Spark只有键值对类型的RDD才能设置分区方式。()
关于Spark中RDD的描述不正确的是?()
spark架构中的rdd相当于java中的()概念
Spark Streming中()函数可以通过对源DStream的每RDD应用RDD-to-RDD函数返回一个新的DStream,这可以用来在DStream做任意RDD操作。
如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()。
Spark作业的每个阶段被Spark环境分解为多个任务,任务并行运行在分布于中的RDD上()
spark生态圈没有能够实时计算的框架
Spark可以实现哪些形式的分布式计算()
Spark中的每个RDD一般情况下是由()个分区组成的。
以下哪种方法可以让Spark不自定义分区也能对任何类型RDD 简单重分区()
以下选项组合后能够执行spark程序的是,换句话说spark程序计算结果必须包含哪几个算子()
Rdd不能够转换成DataFrame
DataFrame不能够转换成Rdd
RDD(ResilientDistributedDataset)叫做分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合
Spark Streaming能够和()无缝集成
与HadoopMapReduce计算框架相比,Spark所采用的Executor具有哪些优点?
全球能源互联网能够突破时空约束,使清洁能源实现高效利用,主要表现在()
购买搜题卡
会员须知
|
联系客服
免费查看答案
购买搜题卡
会员须知
|
联系客服
关注公众号,回复验证码
享30次免费查看答案
微信扫码关注 立即领取
恭喜获得奖励,快去免费查看答案吧~
去查看答案
全站题库适用,可用于聚题库网站及系列App
只用于搜题看答案,不支持试卷、题库练习 ,下载APP还可体验拍照搜题和语音搜索
支付方式
首次登录享
免费查看答案
20
次
账号登录
短信登录
获取验证码
立即登录
我已阅读并同意《用户协议》
免费注册
新用户使用手机号登录直接完成注册
忘记密码
登录成功
首次登录已为您完成账号注册,
可在
【个人中心】
修改密码或在登录时选择忘记密码
账号登录默认密码:
手机号后六位
我知道了