Ubuntu18.04下hadoop2.10安装详细步骤(亲测有效,可供参考)

Wesley13
• 阅读 539

**

安装详细步骤

**
首先给出安装过程需要用到的安装包:云盘连接
提取码:rfxs
解压过后里面有四个文件:
Ubuntu18.04下hadoop2.10安装详细步骤(亲测有效,可供参考)
下面给出详细安装步骤,博主是在虚拟机(Ubuntn18.04)上安装的,注意:需要将文中的xxx换成自己的目录即可。

一、首先需要安装jdk环境:
1、更新Ubuntu源

sudo apt-get update

2、将JDK压缩包(jdk-8u251-linux-x64.tar.gz)解压到Ubuntu系统中 /usr/local/ 中

sudo tar -zxvf jdk-8u251-linux-x64.tar.gz -C /usr/local/

3、将解压的文件夹重命名为 jdk8

cd /usr/local/
sudo mv jdk1.8.0_251/ jdk8

4、添加到环境变量

cd /home/xxx/
sudo gedit .bashrc

在文件末尾添加如下内容:

export JAVA_HOME=/usr/local/jdk8
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=.:$JAVA_HOME/bin:$PATH


source .bashrc

验证是否安装成功

java -version

出现java的版本则证明安装并添加到环境变量成功 java version “1.8.0_251”。

二、安装Hadoop并配置伪分布式
1、安装SSH

sudo apt-get install ssh

2、配置免登录认证,避免使用Hadoop时的权限问题

ssh-keygen -t rsa   (输入此条命令后一路回车)
cd ~/.ssh
cat id_rsa.pub >> authorized_keys
ssh localhost   (发现并未让输入密码即可连接)
exit   (退出远程连接状态)

3、找到Hadoop 2.10(hadoop-2.10.0.tar.gz)
4、解压到 /usr/local 目录中,并将文件夹重命名为 hadoop,最后设置权限

sudo tar -zxvf hadoop-2.10.0.tar.gz -C /usr/local/
cd /usr/local
sudo mv hadoop-2.10.0/ hadoop2.10
sudo chown -R xxx hadoop2.10/

5、验证Hadoop

cd /usr/local/hadoop2.10/bin
./hadoop version   (此处出现hadoop的版本)

6、设置JAVE_HOME环境变量

sudo gedit /usr/local/hadoop2.10/etc/hadoop/hadoop-env.sh

把原来的export JAVA_HOME=${JAVA_HOME}改为
export JAVA_HOME=/usr/local/jdk8

7、设置Hadoop环境变量

sudo gedit /home/xxx/.bashrc

在末尾追加

export HADOOP_HOME=/usr/local/hadoop2.10
export CLASSPATH=.:{
   
   JAVA_HOME}/lib:${
   
   HADOOP_HOME}/sbin:$PATH
export PATH=.:${
   
   HADOOP_HOME}/bin:${
   
   HADOOP_HOME}/sbin:$PATH

并执行

source /home/xxx/.bashrc

8、伪分布式配置,修改2个配置文件(core-site.xml 和 hdfs-site.xml)

9、修改core-site.xml

sudo gedit  /usr/local/hadoop2.10/etc/hadoop/core-site.xml

添加如下内容

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop2.10/tmp</value>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

10、修改hdfs-site.xml

sudo gedit /usr/local/hadoop2.10/etc/hadoop/hdfs-site.xml

添加如下内容

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop2.10/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop2.10/tmp/dfs/data</value>
    </property>
</configuration>

11、配置YARN - 1

cd /usr/local/hadoop2.10/etc/hadoop
cp mapred-site.xml.template mapred-site.xml
sudo gedit mapred-site.xml

添加如下配置

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

12、配置YARN - 2

sudo gedit yarn-site.xml

添加如下配置:

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

13、执行NameNode格式化

cd /usr/local/hadoop2.10/bin
./hdfs namenode -format

如果出现 Storage directory /usr/local/hadoop2.10/tmp/dfs/name has been successfully formatted 则表示格式化成功

14、启动Hadoop所有组件

cd /usr/local/hadoop2.10/sbin
./start-all.sh

注:启动时可能会出现警告,直接忽略即可,不影响正常使用

15、启动成功后,可访问Web页面查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件
http://localhost:50070

16、查看Hadoop相关组件进程

jps

如果执行成功则会发现如下进程:
**NameNode — 50070
DataNode — 50075
SecondaryNameNode — 50090
ResourceManager — 8088
NodeManager

**
可以测试以下 : 将本地文件上传至hdfs,命令如下:

hadoop fs -put 一个本地的任意文件 /
hadoop fs -ls /

也可以在浏览器中Utilities->Browse the file system查看

三 Hive安装
1、找到HIVE安装包(apache-hive-2.3.7-bin.tar.gz)
2、解压到 /usr/local/ 目录下

sudo tar -zxvf apache-hive-2.3.7-bin.tar.gz -C /usr/local

3、给文件夹重命名

sudo mv /usr/local/apache-hive-2.3.7-bin /usr/local/hive2.3.7

4、设置环境变量

sudo gedit /home/xxx/.bashrc

在末尾添加如下内容

export HIVE_HOME=/usr/local/hive2.3.7
export PATH=.:${
   
   HIVE_HOME}/bin:$PATH

刷新环境变量

source /home/xxx/.bashrc

6、下载并添加连接MySQL数据库的jar包
(mysql-connector-java-8.0.19.jar)
解压后找到 mysql-connector-java-8.0.19.jar
将其拷贝到 /usr/local/hive2.3.7/lib

sudo cp -p mysql-connector-java-8.0.19.jar /usr/local/hive2.3.7/lib/

7、创建hive-site.xml配置文件

sudo touch /usr/local/hive2.3.7/conf/hive-site.xml
sudo gedit /usr/local/hive2.3.7/conf/hive-site.xml

并添加如下内容

<configuration>
        <property>
            <name>javax.jdo.option.ConnectionURL</name>
            <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
            <description>JDBC connect string for a JDBC metastore</description>
        </property>
        <property>
            <name>javax.jdo.option.ConnectionDriverName</name>
            <value>com.mysql.cj.jdbc.Driver</value>
            <description>Driver class name for a JDBC metastore</description>
        </property>
        <property>
            <name>javax.jdo.option.ConnectionUserName</name>
            <value>root</value>
            <description>username to use against metastore database</description>
        </property>
        <property>
            <name>javax.jdo.option.ConnectionPassword</name>
            <value>123456</value>
            <description>password to use against metastore database</description>
        </property>
</configuration>

8、在hive配置文件中添加hadoop路径

cd /usr/local/hive2.3.7/conf
sudo cp -p hive-env.sh.template hive-env.sh
sudo gedit /usr/local/hive2.3.7/conf/hive-env.sh

添加如下内容:

HADOOP_HOME=/usr/local/hadoop2.10
export HIVE_CONF_DIR=/usr/local/hive2.3.7/conf

9、hive元数据初始化

schematool -dbType mysql -initSchema

10、测试hive

hive
hive>show databases;

如果能够正常显示内容,则hive安装并配置完毕。

点赞
收藏
评论区
推荐文章
blmius blmius
3年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
Jacquelyn38 Jacquelyn38
3年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Wesley13 Wesley13
3年前
4cast
4castpackageloadcsv.KumarAwanish发布:2020122117:43:04.501348作者:KumarAwanish作者邮箱:awanish00@gmail.com首页:
Wesley13 Wesley13
3年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Wesley13 Wesley13
3年前
00:Java简单了解
浅谈Java之概述Java是SUN(StanfordUniversityNetwork),斯坦福大学网络公司)1995年推出的一门高级编程语言。Java是一种面向Internet的编程语言。随着Java技术在web方面的不断成熟,已经成为Web应用程序的首选开发语言。Java是简单易学,完全面向对象,安全可靠,与平台无关的编程语言。
Stella981 Stella981
3年前
Android蓝牙连接汽车OBD设备
//设备连接public class BluetoothConnect implements Runnable {    private static final UUID CONNECT_UUID  UUID.fromString("0000110100001000800000805F9B34FB");
Stella981 Stella981
3年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Wesley13 Wesley13
3年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
10个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这