栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

vscode配置c/c++环境(vscode配置html环境)

vscode配置c/c++环境(vscode配置html环境)

1. 解压Spark压缩包到D盘,如下图所示:

2.在环境变量中配置SPARK_HOME,如下图所示:
SPARK_HOME

自己的路径
D:axcspark-2.4.6-bin-hadoop2.7

3.把SPARK_HOME 设置为python的exe文件
PYSPARK_PYTHON

自己的路径
C:UserswyjAppDataLocalProgramsPythonPython37python.exe

4. 复制spark下的pyspark目录到python安装目录下的lib目录,如下图所示:

5. 通过cmd执行pip install py4j命令安装py4j,py4j是一个在python中调用java代码的第三方库。效果如下图所示:

6.在D盘创建spark目录,存储我们的spark代码。 7.打开vscode,打开问哦们创建的存放spark代码的文件夹 8.在VsCode中创建0-TestSpark.py文件,填入以下内容:
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("WordCount").getOrCreate()
spark.sparkContext.textFile("file:///D:/spark-2.4.6-bin-hadoop2.7/README.md")
        .flatMap(lambda x: x.split(' '))
        .map(lambda x: (x, 1))
        .reduceByKey(lambda x, y: x + y)
        .foreach(print)
9.运行该python程序,对README.md文件做wordcount,效果如下图所示:

10.到这里我们配置就完成了,之后只要去写py文件就好,不用启动spark集群
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/771664.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号