from pyspark import SparkContext时候报错



  • 在python命令行中运行from pyspark import SparkContext时候报错

    ImportError: No module named pyspark,
    求助怎么解决


  • cid:76:privileges:topics:read

    @Teng_Yang Hi,

    这个问题一般是你的PYTHONPATH环境变量没有配置好。
    假设你的Spark安装在/usr/share/spark。你需要配置一下几个环境变量:

    export SPARK_HOME=/usr/share/spark
    export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/build:$PYTHONPATH

    你只需要把对应的变量放到~/.bashrc之类的文件里,然后运行source ~/.bashrc就可以让环境变量生效了。

    有关环境变量配置的具体方法,可以参考这篇文章:http://www.cyberciti.biz/faq/set-environment-variable-linux/


登录后回复
 

与 BitTiger Community 的连接断开,我们正在尝试重连,请耐心等待