
Spark SQL怎么创建编程创建DataFrame
2个回答
2016-01-28 · 知道合伙人软件行家
关注

展开全部
创建DataFrame在Spark SQL中,开发者可以非常便捷地将各种内、外部的单机、分布式数据转换为DataFrame。以下Python示例代码充分体现了Spark SQL 1.3.0中DataFrame数据源的丰富多样和简单易用:
- # 从Hive中的users表构造DataFrame
- users = sqlContext.table("users")
- # 加载S3上的JSON文件
- logs = sqlContext.load("s3n://path/to/data.json", "json")
- # 加载HDFS上的Parquet文件
- clicks = sqlContext.load("hdfs://path/to/data.parquet", "parquet")
- # 通过JDBC访问MySQL
- comments = sqlContext.jdbc("jdbc:mysql://localhost/comments", "user")
- # 将普通RDD转变为DataFrame
- rdd = sparkContext.textFile("article.txt") \
- .flatMap(lambda line: line.split()) \
- .map(lambda word: (word, 1)) \
- .reduceByKey(lambda a, b: a + b) \
- wordCounts = sqlContext.createDataFrame(rdd, ["word", "count"])
- # 将本地数据容器转变为DataFrame
- data = [("Alice", 21), ("Bob", 24)]
- people = sqlContext.createDataFrame(data, ["name", "age"])
- # 将Pandas DataFrame转变为Spark DataFrame(Python API特有功能)
- sparkDF = sqlContext.createDataFrame(pandasDF)
2016-01-27
展开全部
char * strcpy(char * dst, const char * src) // 实现src到dest的复制
{
if ((src == NULL) || (dst == NULL)) //判断参数src和dest的有效性
{
return NULL;
}
char *strdest = dst; //保存目标字符串的首地址
char *strStr =(char *)src;//这里需要强制转换一下
while ((*strdest++=*strStr++)!='\0'); //把src字符串的内容复制到dest下
return strdest;
}
{
if ((src == NULL) || (dst == NULL)) //判断参数src和dest的有效性
{
return NULL;
}
char *strdest = dst; //保存目标字符串的首地址
char *strStr =(char *)src;//这里需要强制转换一下
while ((*strdest++=*strStr++)!='\0'); //把src字符串的内容复制到dest下
return strdest;
}
本回答被网友采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询