sparkSql可以访问hive数据,并将其结果取回作为RDD使用

sparkSql可以访问hive数据,并将其结果取回作为RDD使用


相关考题:

查询可以作为窗体、报表和数据访问页的______。

SparkSQL可以通过()方法加载json文件为DataFrame。 A.readB.jsonC.getD.at

SparkStreming中()函数可以通过对源DStream的每RDD应用RDD-to-RDD函数返回一个新的DStream,这可以用来在DStream做任意RDD操作。 A.transB.reduceC.joinD.cogroup

请问RDD的()操作把RDD所有元素转换成数组并返回到Driver端。 A.zipB.joinC.combineByKeyD.collect

SparkSQL可以处理()。 A.RDDB.Parquet文件C.JSON文件D.Hive表

关于查询的叙述,下列说法中不正确的是( )。A.查询可是作为结果,也可以作为来源B.查询可以根据条件从数据表中检索数据,并将其结果存储起来C.可以以查询为基础,来创建表、查询、窗体或报表D.查询是以数据库为基础的,不能以其他查询为基础而创建

为了加快数据库的访问速度,可以对数据库建立并使用(58),使它存在于数据库的整个生命周期。A.主键B.索引C.数据表D.数据视图

SparkSQL的应运而生,它是将SparkSQL转换成RDD,然后提交到集群执行,执行效率非常快

RDD可以转化为DataFrames,但是DataFrames不能转化为RDD

sparkSql不能够访问hive中的数据

sparkSql不支持查询原生的RDD

sparkSql可以读取json格式的数据

SparkSQL编程中需要如下那些资源或者类的引用()A、sql风格B、DSL风格C、RDD风格D、mybatis风格

sparkSql仅仅支持查询原生的RDD,其他方式的查询都不支持

SparkStreaming中的Dstream可以看作是在RDD上面又封了一层的数据结构

union算子对源RDD和参数RDD求并集后返回一个新的RDD

hive是shark的前身,shark是sparkSql的前身

DStream是一系列连续的RDD来表示。每个RDD含有一段时间间隔内的数据

查询结果可以作为其他数据库对象数据来源。

sparkSql不能使用jdbc读取数据库的数据

Hive?是建立在Hadoop?之上的,所有?Hive?的数据都是存储在HDFS?中的

SparkSQL是Spark用来处理结构化数据的一个模块,它提供了一个编程抽象叫做DataFrame并且作为分布式SQL查询引擎的作用

sparkSql是基于hive的

SparkSQL是一个用来处理结构化数据的spark组件。它提供了一个叫做()的可编程抽象数据模型A、DataFramesB、TableC、DataSetD、RDD

采用Select语句返回的结果是一个结果集。用户只能浏览该结果集中的数据,无法对数据进行操作。如果需要逐行对数据进行访问和操作,可以使用()。A、视图B、过程C、函数D、游标

判断题RDD可以从Hadoop兼容的文件系统生成,生成之后可以通过调用RDD的算子对RDD的数据进行部分更新。A对B错

单选题甲将其设备寄存在乙处,乙未经甲同意,用该设备作为出资与丙设立了丁公司,丁公司不知情,乙已将该设备交付给丁公司。根据公司法律制度的规定,下列表述中,正确的是(  )。A甲有权取回设备B甲无权取回设备,但可以向乙主张损害赔偿C甲无权取回设备,但可以向丙主张损害赔偿D甲无权取回设备,但可以向丁公司主张损害赔偿