Maven spark project on Linux
2016-01-10 16:23
477 查看
Linux 下Maven交互式初始化项目
1)mkdir myspark; cd myspark
2)mvn命令初始化,创建相应目录与文件
mvn archetype:generate //创建,下载jars
默认类型: org.apache.maven.archetypes:maven-archetype-quickstart
手动输入 groupId:com.eric; artifactId:myspark; package:com.xxx
生成java项目,包含main/test 及相关文件
hadoop@slave1:~/myspk/myspark/myspark$ find .
...
./src/main/java/com/eric/App.java
...
./src/test/java/com/eric/AppTest.java
./pom.xml
或者指令提供所有信息:
mvn archetype:generate -DgroupId=com.eric -DartifactId=myspark -DarchetypeArtifactId=maven-archetype-quickstart //-DinteractiveMode=false
3) java源码 /myspark/src/main/java/com/eric
4)根据依赖关系,pom中指定依赖
...
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.2.0</version>
...
5) mvn package 完成编译
6) 运行:如果报链接master错误,则需要设置sparkconf.setMaster("local");
java -cp myspark-1.0-SNAPSHOT.jar:/home/hadoop/work/spark-1.5.2/assembly/target/scala-2.10/spark-assembly-1.5.2-hadoop2.6.0.jar com.eric.JavaWordCount ~/test/exp.txt
7)插件运行,需要先edit pom.xml
<plugin>
<groupId>org.codehaus.mojo</groupId>
<artifactId>exec-maven-plugin</artifactId>
<version>1.2.1</version>
</plugin>
执行命令:
mvn exec:java -Dexec.mainClass="com.eric.JavaWordCount" -Dexec.args="/home/hadoop/test/exp.txt"
8) scalac 命令行编译运行
在maven生成的项目下添加.scala 文件并编译
scalac -d target/classes -classpath target/classes:/home/hadoop/work/spark-1.5.2/assembly/target/scala-2.10/spark-assembly-1.5.2-hadoop2.6.0.jar src/main/java/com/eric/myscala.scala
运行: -cp //classpath
java -cp target/classes:/home/hadoop/work/spark-1.5.2/assembly/target/scala-2.10/spark-assembly-1.5.2-hadoop2.6.0.jar myscala ~/test/exp.txt
9) maven 插件编译执行scala
edit pom.xml
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.1</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>2.10.4</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.5.2</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.2.2</version>
</plugin>
<plugin>
<groupId>org.codehaus.mojo</groupId>
<artifactId>exec-maven-plugin</artifactId>
<version>1.2.1</version>
</plugin>
</plugins>
</build>
编译
mvn scala:compile
运行:
mvn exec:java -Dexec.mainClass="myscala" -Dexec.args="/home/hadoop/test/log.txt"
Windows project之后用IDEA试试.
1)mkdir myspark; cd myspark
2)mvn命令初始化,创建相应目录与文件
mvn archetype:generate //创建,下载jars
默认类型: org.apache.maven.archetypes:maven-archetype-quickstart
手动输入 groupId:com.eric; artifactId:myspark; package:com.xxx
生成java项目,包含main/test 及相关文件
hadoop@slave1:~/myspk/myspark/myspark$ find .
...
./src/main/java/com/eric/App.java
...
./src/test/java/com/eric/AppTest.java
./pom.xml
或者指令提供所有信息:
mvn archetype:generate -DgroupId=com.eric -DartifactId=myspark -DarchetypeArtifactId=maven-archetype-quickstart //-DinteractiveMode=false
3) java源码 /myspark/src/main/java/com/eric
4)根据依赖关系,pom中指定依赖
...
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.2.0</version>
...
5) mvn package 完成编译
6) 运行:如果报链接master错误,则需要设置sparkconf.setMaster("local");
java -cp myspark-1.0-SNAPSHOT.jar:/home/hadoop/work/spark-1.5.2/assembly/target/scala-2.10/spark-assembly-1.5.2-hadoop2.6.0.jar com.eric.JavaWordCount ~/test/exp.txt
7)插件运行,需要先edit pom.xml
<plugin>
<groupId>org.codehaus.mojo</groupId>
<artifactId>exec-maven-plugin</artifactId>
<version>1.2.1</version>
</plugin>
执行命令:
mvn exec:java -Dexec.mainClass="com.eric.JavaWordCount" -Dexec.args="/home/hadoop/test/exp.txt"
8) scalac 命令行编译运行
在maven生成的项目下添加.scala 文件并编译
scalac -d target/classes -classpath target/classes:/home/hadoop/work/spark-1.5.2/assembly/target/scala-2.10/spark-assembly-1.5.2-hadoop2.6.0.jar src/main/java/com/eric/myscala.scala
运行: -cp //classpath
java -cp target/classes:/home/hadoop/work/spark-1.5.2/assembly/target/scala-2.10/spark-assembly-1.5.2-hadoop2.6.0.jar myscala ~/test/exp.txt
9) maven 插件编译执行scala
edit pom.xml
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.1</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>2.10.4</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.5.2</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.2.2</version>
</plugin>
<plugin>
<groupId>org.codehaus.mojo</groupId>
<artifactId>exec-maven-plugin</artifactId>
<version>1.2.1</version>
</plugin>
</plugins>
</build>
编译
mvn scala:compile
运行:
mvn exec:java -Dexec.mainClass="myscala" -Dexec.args="/home/hadoop/test/log.txt"
Windows project之后用IDEA试试.
相关文章推荐
- 常用Linux系统命令
- Linux中DNS配置和应用
- linux服务器 磁盘和文件系统管理(一)管理磁盘及分区
- VMWARE 克隆出一台虚拟机,网卡不可用
- Linux基础
- Linux setup 安装命令
- linux tar order
- linux 常用命令
- /etc/hosts.conf
- centos6.6 搭建hadoop-2.6.0步骤
- 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(六)码农网
- 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(五)
- 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(四)码农网
- Linux下使用yum安装MySQL
- CentOS下设置vimrc,添加文件注释信息以及设置tab 键为4 格
- 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(三)码农网
- 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(二)转载自码农网
- 安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(一)转载自码农网
- CentOS已经安装命令,但提示找不到
- Linux运维工程师入门须掌握的10个技术点