如何运行含spark的python脚本

 我来答
ig...t@163.com
2017-10-27 · 超过31用户采纳过TA的回答
知道答主
回答量:72
采纳率:25%
帮助的人:31.5万
展开全部
2~spark$ bin/spark-submit first.py
-----------first.py-------------------------------
from pyspark import SparkConf, SparkContext
conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)
lines = sc.textFile("first.py")
pythonLines = lines.filter(lambda line: "Python" in line)
print "hello python"
print pythonLines.first()
print pythonLines.first()
print "hello spark!"
---------------------------------------------------
hello python
pythonLines = lines.filter(lambda line: "Python" in line)
pythonLines = lines.filter(lambda line: "Python" in line)
hello spark!

到spark的安装目录下/bin 下面 spark-submit ***.py 即可
gf...e@163.com
2017-10-27 · 超过38用户采纳过TA的回答
知道答主
回答量:98
采纳率:90%
帮助的人:51.4万
展开全部
前段间使用google博客空间觉般所现几篇文章转 执行python脚本需要python文件做操作即: python文件第行加#! /usr/bin/python即python解释器所目录另外种写#! ...
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式