您现在的位置: 主页 > 嵌入式操作系统 > Linux > 使用IntelliJ IDEA编写Scala在Spark中运行
本文所属标签:
为本文创立个标签吧:

使用IntelliJ IDEA编写Scala在Spark中运行

来源:网络整理 网络用户发布,如有版权联系网管删除 2018-07-28 

使用IntelliJ IDEA编写Scala在Spark中运行

使用Scala写一个测试代码:

object Test {

def main(args: Array[String]): Unit = {

println("hello world")

}

}

就把这个Test视为类,项目组织结构如:

然后设置编译选项:

然后在项目文件夹下面可以找到编译好的Jar包:

复制到Spark指定的目录下(自己建的):

启动Spark,然后提交任务:

spark-submit --class Test --master spark://localhost:7077 /home/data/myjar/Hello.jar

从上面控制台中已经能够看到执行的输出信息,同样,我们也可在web管理器中查看任务信息:

接下来的事情就只剩下编写Scala程序实现自己的算法了。

Spark简介及其在Ubuntu下的安装使用 http://www.linuxidc.com/Linux/2013-08/88606.htm



              查看评论 回复



嵌入式交流网主页 > 嵌入式操作系统 > Linux > 使用IntelliJ IDEA编写Scala在Spark中运行
 使用 然后 编译

"使用IntelliJ IDEA编写Scala在Spark中运行"的相关文章

网站地图

围观()