推荐
专栏
教程
课程
飞鹅
本次共找到162条
spark
相关的信息
Stella981
•
3年前
Spark 配置连接hive 元数据库(mysql)
Spark连接hive元数据库(mysql)方法一:1)打开Hivemetastoreroot@head42~hiveservicemetastore&netstatano|grep9083???2)开启spark连接Mysq
Wesley13
•
3年前
05.kafka提前准备工作:搭建zookeeper集群环境
总体参考:http://www.cnblogs.com/zhangs1986/p/6564839.html搭建之间同步下spark01、02、03的环境复制/opt/flume这个文件夹到spark02的/opt目录下,同理03scpr/opt/flume/spark02:/opt/scpr/opt/kafka/spar
Stella981
•
3年前
Spark 部署及示例代码讲解
Spark部署及示例代码讲解本文介绍了如何下载、部署Spark及示例代码的运行。此外,深入介绍了运行代码的过程、脚本内容,通过这些介绍力求让读者可以快速地上手Spark。目前市面上发布的Spark中文书籍对于初学者来说大多较为难读懂,作者力求推出一系列Spark文章,让读者能够从实际入手的角度来了解Spa
Stella981
•
3年前
Spark安装教程
注:该教程转自厦门大学大数据课程学习总结Spark的安装过程较为简单,在已安装好Hadoop的前提下,经过简单配置即可使用。安装Spark1.sudotar\zxf~/下载/spark1.6.2binwithouthadoop.tgzC/usr/local/
Stella981
•
3年前
Spark常用的三种计算模式
以计算PI为例子进入spark的安装目录单机local模式提交任务./bin/sparksubmitclassorg.apache.spark.examples.SparkPimasterlocalexamples/jars/sparkexamples\.jaryarnclient模式执
Stella981
•
3年前
Spark2.4.0源码——RpcEnv
参考《Spark内核设计的艺术:架构设计与实现——耿嘉安》NettyRpcEnv概述 Spark的NettyRpc环境的一些重要组件:privatenettyvaltransportConfSparkTransportConf.fromSparkConf(...)privat
Stella981
•
3年前
CDH5.12.1添加spark2.2.0服务
最新的CDH安装包中spark版本为1.6,不过对于勇于尝鲜的同学,官方也提供了spark2的升级包,在CDH中spark1和spark2可以共存,但是由于scala版本的兼容性问题,建议只装一个版本。由于spark依赖于scala所以需要在每个节点安装scala,并配置好SCALA\_HOME并将$SCALA\_HOME/bin加入PATH中。Sca
Stella981
•
3年前
Spark MLlib 贝叶斯分类算法实例具体代码及运行过程详解
importorg.apache.log4j.{Level,Logger}importorg.apache.spark.{SparkConf,SparkContext}importorg.apache.spark.mllib.classification.{NaiveBayes,NaiveBayesModel}
Stella981
•
3年前
Spark中将对象序列化存储到hdfs
废话不多说,直接贴代码了.spark1.4hbase0.98import org.apache.spark.storage.StorageLevelimport scala.collection.JavaConverters._import java.io.Fileimport java.io.FileIn
京东云开发者
•
7个月前
hive 、spark 、flink之想一想
hive1:hive是怎么产生的?2:hive的框架是怎么样的?3:hive执行流程是什么?4:hivesql是如何把sql语句一步一步到最后执行的?5:hivesql任务常用参数调优做过什么?spark6:spark是怎么产生的?7:spark框架是怎么
1
2
3
•••
17