spark不仅可以运行在安装了Hadoop的集群上,同样可以安装在我们的笔记本电脑上。那要怎样安装到最新的Windows 10上呢?
目前最新版的spark是2.2版本,使用的Scala 2.11编译。
- 安装java8 JDK,设置好环境变量,确保
java -version
和Javac -version
都好用 - 安装Scala 2.11的版本,设置好环境变量,不要安装官网最新版的2.12。确保
scala -version
和scalac -version
都好用 - 现在下载最新版spark,我现在的版本是spark-2.2.0-bin-hadoop2.7.tgz。
- 解压到C盘中
- 设置SPARK_HOME环境变量,C:\spark-2.2.0-bin-hadoop2.7
- 添加
%SPARK_HOME%\bin
到Path - 下载winutils的Hadoop 2.7版本
- 把hadoop-2.7.1文件夹复制到C盘
- 设置HADOOP_HOME环境变量,C:\hadoop-2.7.1
- 添加
%HADOOP_HOME%\bin
到Path - 打开控制台,输入
spark-shell
检查安装是否成功。