spark本身能够读取到hdfs中的数据
spark本身能够读取到hdfs中的数据
相关考题:
( ) 是事务中最低的级别,该级别下的事务可以读取到另一个事务中未提交的数据,即脏读。 A SERIALIZABLEB READ UNCOMMITTEDC READ COMMITTEDD REPEATABLE READ
HDFS是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是( )。 A.一次写入,少次读B.多次写入,少次读C.多次写入,多次读D.一次写入,多次读
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().A、FSDataInputStream扩展了DataInputStream以支持随机读B、为实现细粒度并行,输入分片应该越小越好C、一台机器可能被指派从输入文件的任意位置开始处理一个分片D、输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
单选题下面关于Hadoop兼容性错误的是()。AFlink能够支持Yarn,能够从HDFS和HBase中获取数据B能够使用所有的Hadoop的格式化输入和输出C能够使用Hadoop原有的Mappers和Reducers,但不能与Flink的操作混合使用D能够更快的运行Hadoop的作业
单选题大数据中spark生态支持的组件有:()和spark streaming。AeMBBBspark SQLCETCDspark streaming