Hadoop安装-Spark Windows 环境 pycharm开发环境搭建

1、下载版本对应的spark和hadoop,如下: 2、配置Spark 解压Spark并配置环境变量, 新建环境变量如下: 在Path中增加如下环境变量: 3、配置hadoop相关变量, 4、下载hadoop组件,并进行配置(winutils ) 下载地址:https://github.com/sr
posted @ 2018-04-11 00:25  Wind_LPH  阅读(724)  评论(0编辑  收藏  举报