Hadoop的两大核心是HDFS和MapReduce,HDFS用来存储数据,MapReduce用来处理数据。
Hadoop的两大核心是HDFS和MapReduce,HDFS用来存储数据,MapReduce用来处理数据。
参考答案和解析
正确
相关考题:
关于Block和Split两个概念,下面说法错误的是()。 A、Block是HDFS中最小的数据存储单位B、Split是MapReduce中最小的计算单元C、Block与Split是一一对应关系D、Block和Split之间对应关系是任意的,可由用户控制
以下哪个是HDFS的局限性。() A.延迟高B.只允许对文件执行追加操作,不能执行随机写操作C.用MapReduce处理大量小文件时,会产生过多的Map任务,线程管理开销会大大增加D.拥有复杂的数据模型
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().A、FSDataInputStream扩展了DataInputStream以支持随机读B、为实现细粒度并行,输入分片应该越小越好C、一台机器可能被指派从输入文件的任意位置开始处理一个分片D、输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
随着谷歌()和()的发布,大数据不再仅用来描述大量的数据,还涵盖了处理数据的速度。A、Map,iGoogleB、Docs,GoogleFileSystemC、YouTube,GooleMobileD、MapReduce,GoogleFileSystem
单选题关于Hive和Hadoop其他组件的关系,以下描述错误的是?()AHive最终将数据存储在HDFS中BHiveSQL其本质是执行MapReduce任务CHive是Hadoop平台的数据仓库工具DHive对HBase有强依赖
单选题下面关于HDFS架构关键设计要点错误的是()。A支持回收站机制,以及副本数的动态设置机制B数据存储以数据块为单位,存储在操作系统的HDFS文件系统上C提供JAVAAPI,HTTP方式,SHELL方式访问HDFS数据DHDFS对外仅呈现多个统一的文件系统
单选题下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().AFSDataInputStream扩展了DataInputStream以支持随机读B为实现细粒度并行,输入分片应该越小越好C一台机器可能被指派从输入文件的任意位置开始处理一个分片D输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割