知行编程网知行编程网  2023-01-14 02:30 知行编程网 隐藏边栏  14 
文章评分 0 次,平均分 0.0
导语: 本文主要介绍了关于怎么用python写spark的相关知识,包括spark用python编程的书,以及spark是哪种语言写的这些编程知识,希望对大家有参考作用。

如何用python写spark

为什么要使用Python来写Spark

我觉得Python写spark的唯一原因是:你要做数据挖掘和AI相关的工作。因为很多数据挖掘的基础语言是python,再去学scala会很费时间,而python强大的类库是它的优势,很多算法库只有python才有。

Win本地编写代码调试

编辑器:PyCharm

Spark:1.6

Python:2.7

Win环境准备

Python的安装

解压python包,在环境变量里面配上bin的路径

Spark的安装

下载spark的bin文件,解压即可,在环境变量配置SPARK_HOME

要可以通过编辑器来安装,如pycharm,查找pyspark库安装即可

Hadoop安装

安装hadoop环境 。在win下面需要winutils.exe;在环境里面配置HADOOP_HOME 即可。

代码示例

# -*- coding: utf-8 -*-
from __future__ import print_function
from pyspark import *
import os
print(os.environ['SPARK_HOME'])
print(os.environ['HADOOP_HOME'])
if __name__ == '__main__':
    sc = SparkContext("local[8]")
    rdd = sc.parallelize("hello Pyspark world".split(" "))
    counts = rdd \
        .flatMap(lambda line: line) \
        .map(lambda word: (word, 1)) \
        .reduceByKey(lambda a, b: a + b) \
        .foreach(print)
    sc.stop

问题:

from pyspark import *

找不到 pyspark。然后需要将spark bin包下的python全部拷贝过来(可能需要解压py4j)

%PYTHON%\Lib\site-packages下面去。这样,你的编辑器才能找到。

或者:

配置你的编辑器的环境变量:

PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages

使用spark-submit提交时用到其他类库 –py-files xxxx/xxxx.zip,xxxx.py。

本文为原创文章,版权归所有,欢迎分享本文,转载请保留出处!

知行编程网
知行编程网 关注:1    粉丝:1
这个人很懒,什么都没写
扫一扫二维码分享