HDFS和MapReduce作为Hadoop的核心组件,下列对它们的描述中错误的是:
A. HDFS是具有高容错特性的分布式文件系统,其设计目标是能够部署在普通的商用机器硬件上,为应用程序提供高效的数据访问
B. HDFS特别适合那些需要多次写入、多次读取的超大规模数据集的应用程序
C. MapReduce是一种并行编程模型,它帮助用户编写处理大规模数据集的并行运行程序
D. MapReduce隐藏了分布式并行编程的底层实现细节,提升了大数据处理应用的开发效率'
查看答案
该试题由用户912****56提供
查看答案人数:14148
如遇到问题请联系客服
正确答案
该试题由用户912****56提供
查看答案人数:14149
如遇到问题请联系客服