Spark Streaming数据输入后可以用Spark的高度抽象原语如:map、reduce、join、window等进行运算

Spark Streaming数据输入后可以用Spark的高度抽象原语如:map、reduce、join、window等进行运算


相关考题:

对于元组valt=(1,3.14,"Fred")说法错误的是?()A、t._0?等于1B、t的类型为Tuple3[Int,Double,java.lang.String]C、val(first,second,_)=t?//second等于3.14D、t._0无法访问,会抛出异常

DataFrame更像传统数据库的二维表格,除了数据以外,还记录数据的结构信息,即()A、schemaB、表结构C、RowD、DataSet

rdd是由一系列的什么组成的()A、jobB、driverC、partitionD、worker

objectTest4{defadd(i:Int)(implicity:Int=100):Int=i+ydefmain(args:Array[String]):Unit={implicitvalabc:Int=300implicitvala:Double=300.0varadd2=add(2)(101);println(add2)}}()A、102B、103C、302D、编译出现错误,有3个相同类型的隐式值

flume中的三大组件为source、channel、sinks

以下选项中是spark的核心框架的是()A、spark coreB、spark streamingC、mlbaseD、Grophx

在scala中的所有基础类型中只有String是继承自AnyRef