一.安装jdk及配置环境变量:
下载地址:
https://www.oracle.com/java/technologies/downloads/#java8-windows
安装步骤:
下载后点击安装,中途可以自定义安装路径,最后查看安装路径:
开始配置系统环境变量:
在系统变量中新建:
变量名: JAVA_HOME
变量值:D:\jdk 也就是jdk的安装路径
确认后,打开cmd,输入java version,出现如下界面:
说明java系统环境变量已配好。
二.安装spark及配置环境变量:
下载地址:
https://archive.apache.org/dist/spark/
点击想安装的版本(我安装的是spark-3.0.0):
将压缩包放在喜欢的位置进行解压:
开始配置spark的系统环境变量:
在系统变量中新建:
变量名:SPARK_HOME
变量值:D:\spark-3.0.0-bin-hadoop2.7
三.安装hadoop及配置环境变量:
下载地址:
https://archive.apache.org/dist/hadoop/common/
选择与spark对应的版本:
点击之后进行下载:
解压到喜欢的位置:
此时bin目录(D:\hadoop-2.7.1\bin)下可能没有hadoop.dll及winutils.exe文件,
需要进行下载:
hadoop.dll:
https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/hadoop.dll
点击下载
winutils.exe:
https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/winutils.exe
下载方式同上
将hadoop.dll和winutils.exe均拷贝到D:\hadoop-2.7.1\bin下和C:\Windows\System32下(两个文件各拷贝一份)
开始配置hadoop的系统环境变量:
新建系统变量:
变量名:HADOOP_HOME
变量值:D:\hadoop-2.7.1
在cmd输入hadoop version,出现如下界面:
说明hadoop环境变量配置成功;
接着输入spark-shell,出现如下界面:
说明spark系统环境变量配置成功;
接下来安装py4j,在cmd中输入pip install py4j
安装成功后接着输入pip install pyspark,安装好后出现如下界面:
最后输入pyspark,出现如下界面:
再来pycharm看引用的pyspark代码,已经可以正常使用了:
至此,windows(win7)安装pyspark(3.0.0及以上版本)成功