摘要: 1、下载版本对应的spark和hadoop,如下: 2、配置Spark 解压Spark并配置环境变量, 新建环境变量如下: 在Path中增加如下环境变量: 3、配置hadoop相关变量, 4、下载hadoop组件,并进行配置(winutils ) 下载地址:https://github.com/sr 阅读全文
posted @ 2018-04-11 00:25 Wind_LPH 阅读(724) 评论(0) 推荐(0) 编辑