Hive调优

lix_uan
• 阅读 1359

Explain查看执行计划

  • 在查询语句前加explain

    explain select * from table;
    
    # 查看详细执行计划
    explain extended select * from table;

建表优化

分区表

# 创建分区表
create table dept_partition(
deptno int, dname string, loc string
)
partitioned by (day string)
row format delimited fields terminated by '\t';

# 加载数据到分区表中
load data local inpath '/opt/module/data/dept_20220221.log' into table dept_partition partition(day='20220221');

# 单分区查询数据
select * from dept_partition where day='20220221';

# 多分区联合查询
select * from dept_partition where day='20200401'
union
select * from dept_partition where day='20200402'

# 增加单个分区
alter table dept_partition add partition(day='20220404');

# 同时删除多个分区
alter table dept_partition drop partition (day='20220404'), partition(day='20220405');

# 查看分区表有多少分区
show partitions dept_partition;

# 查看分区表结构
desc formatted dept_partition;

二级分区

# 创建二级分区表
create table dept_partition2(
    deptno int, 
    dname string, 
    loc string)
    partitioned by (day string, hour string)
    row format delimited fields terminated by '\t';

# 正常加载数据
load data local inpath '/opt/module/data/dept_20220401.log' into table
dept_partition2 partition(day='20220401', hour='12');

# 查询分区数据
select * from dept_partition2 where day='20200401' and hour='12';

动态分区

# 开启动态分区功能,默认true
set hive.exec.dynamic.partition=true;

# 设置为非严格模式,默认为严格模式,必须指定至少一个静态分区
set hive.exec.dynamic.partition.mode=nonstrict;

# 所有MR节点最大可以创建的动态分区数
set hive.exec.max.dynamic.partitions=1000;

# 每个MR节点上最大可用创建的动态分区数,根据实际情况定
set hive.exec.max.dynamic.partitions.pernode=365

# 整个MRJob中,最大可以创建的HDFS文件数
set hive.exec.max.created.files=100000

分桶表

  • 分区针对的是数据的存储路径,分桶针对的是数据文件
  • 注意事项
    • reduce个数设置为-1,让Job自行决定需要用多少个reduce
    • 从hdfs中load数据到分桶表中,避免本地文件找不到
    • 不要使用本地模式
# 创建分桶表
create table stu_buck(id int, name string)
clustered by(id) 
into 4 buckets
row format delimited fields terminated by '\t';

# 查看表结构
desc formatted stu_buck;

# load方式导入数据到分桶表中
load data inpath  '/student.txt' into table stu_buck;

# 查询分桶的数据
select * from stu_buck;

抽样查询

select * from stu_buck tablesample(bucket 1 out of 4 on id);

HQL语法优化

group by

# 是否在Map端进行聚合,默认为True
set hive.map.aggr = true;

# 在Map端进行聚合操作的条目数目
set hive.groupby.mapaggr.checkinterval = 100000;

# 有数据倾斜的时候进行负载均衡(默认是false)
set hive.groupby.skewindata = true;

Vectorization

# 批处理,比单条记录单次获得效率更高
set hive.vectorized.execution.enabled = true;
set hive.vectorized.execution.reduce.enabled = true;

多重模式

insert int t_ptn partition(city=A). select id,name,sex, age from student where city= A;
insert int t_ptn partition(city=B). select id,name,sex, age from student where city= B;

# 一次读取,多次插入,修改为:
from student
insert int t_ptn partition(city=A) select id,name,sex, age where city= A
insert int t_ptn partition(city=B) select id,name,sex, age where city= B

in/exists语句

select a.id, a.name from a where a.id in (select b.id from b);
select a.id, a.name from a where exists (select id from b where a.id = b.id);

# 可以使用Join来改写
select a.id, a.name from a join b on a.id = b.id;

# 应该转换成 left semi join
select a.id, a.name from a left semi join b on a.id = b.id;

CBO优化(成本优化器)

# join的时候,前面的表会被加载到内存中,后面的表进行磁盘扫描
# 开启CBO,以最小的代价执行最好的代价
set hive.cbo.enable=true;
set hive.compute.query.using.stats=true;
set hive.stats.fetch.column.stats=true;
set hive.stats.fetch.partition.stats=true;

谓词下推

# 谓词下推,默认是true
set hive.optimize.ppd = true; 

MapJoin

# 设置自动选择MapJoin,默认为true
set hive.auto.convert.join=true;

# 大表小表的阈值设置(默认25M以下认为是小表)
set hive.mapjoin.smalltable.filesize=25000000;

大表SMB Join

# 设置参数
set hive.optimize.bucketmapjoin = true;
set hive.optimize.bucketmapjoin.sortedmerge = true;
set hive.input.format=org.apache.hadoop.hive.ql.io.BucketizedHiveInputFormat;
# 创建分桶表一
create table bigtable_buck1(
    id bigint,
    t bigint,
    uid string,
    keyword string,
    url_rank int,
    click_num int,
    click_url string)
clustered by(id)
sorted by(id)
into 6 buckets
row format delimited fields terminated by '\t';
load data local inpath '/opt/module/data/bigtable' into table bigtable_buck1;

# 创建分桶表二,分桶数和第一张表的分桶数成倍数关系
create table bigtable_buck2(
    id bigint,
    t bigint,
    uid string,
    keyword string,
    url_rank int,
    click_num int,
    click_url string)
clustered by(id)
sorted by(id)
into 6 buckets
row format delimited fields terminated by '\t';
load data local inpath '/opt/module/data/bigtable' into table bigtable_buck2;

# 测试
insert overwrite table jointable
select b.id, b.t, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from bigtable_buck1 s
join bigtable_buck2 b
on b.id = s.id;

数据倾斜

单表数据倾斜

  • 使用参数

    # 是否在Map端进行聚合,默认为True
    set hive.map.aggr = true;
    # 在Map端进行聚合操作的条目数目
    set hive.groupby.mapaggr.checkinterval = 100000;
    # 有数据倾斜的时候进行负载均衡(默认是false)
    set hive.groupby.skewindata = true;
  • 增加Reduce数量(多个key同时导致数据倾斜)

    # 每个Reduce处理的数据量默认是256MB
    set hive.exec.reducers.bytes.per.reducer = 256000000
    # 每个任务最大的reduce数,默认为1009
    set hive.exec.reducers.max = 1009

Join数据倾斜

# join的键对应的记录条数超过这个值则会进行分拆,值根据具体数据量设置
set hive.skewjoin.key=100000;
# 如果是join过程出现倾斜应该设置为true
set hive.optimize.skewjoin=false;

Job优化

Hive Map优化

  • 增加map数

    # 设置最大切片值为100个字节
    set mapreduce.input.fileinputformat.split.maxsize=100;
  • 小文件合并

    # 在map-only任务结束时合并小文件,默认true
    set hive.merge.mapfiles = true;
    # 在map-reduce任务结束时合并小文件,默认false
    set hive.merge.mapredfiles = true;
    # 合并文件的大小,默认256M
    set hive.merge.size.per.task = 268435456;
    # 当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge
    set hive.merge.smallfiles.avgsize = 16777216;
  • Map端聚合

    # 相当于map端执行combiner
    set hive.map.aggr=true;
  • 推测执行

    # 为拖后腿任务启动一个备份任务,同时运行。谁先运行完,则采用谁的结果
    set mapred.map.tasks.speculative.execution = true

Hive Reduce优化

  • 合理设置Reduce数

    # 每个Reduce处理的数据量默认是256MB
    set hive.exec.reducers.bytes.per.reducer = 256000000
    # 每个任务最大的reduce数,默认为1009
    set hive.exec.reducers.max = 1009
  • reduce个数并不是越多越好

    • 启动和初始化reduce会消耗时间和资源
    • 有多少个reduce,就会有多少个输出文件,容易造成小文件过多

任务整体优化

  • Fetch抓取

    <property>
        <name>hive.fetch.task.conversion</name>
        <value>more</value>
    </property>
  • 本地模式

    # 开启本地模式
    set hive.exec.mode.local.auto=true; 
    # 设置local mr的最大输入数据量,当输入数据量小于这个值时采用local  mr的方式,默认为134217728,即128M
    set hive.exec.mode.local.auto.inputbytes.max=50000000;
    # 设置local mr的最大输入文件个数,当输入文件个数小于这个值时采用local mr的方式,默认为4
    set hive.exec.mode.local.auto.input.files.max=10;
  • 并行执行(数据量很大,sql很长的时候使用)

    # 打开任务并行执行,默认为false
    set hive.exec.parallel=true; 
    # 同一个sql允许最大并行度,默认为8
    set hive.exec.parallel.thread.number=16; 
  • JVM重用(小文件过多的时候用)

  • 严格模式

    # 分区表不使用分区过滤
    # order by没有limit过滤
    # 笛卡尔积
    hive.strict.checks.no.partition.filter=true

Hive on Spark

set hive.execution.engine=spark;
set spark.executor.memory=11.2g;
set spark.yarn.executor.memoryOverhead=2.8g;
set spark.executor.cores=4;
set spark.executor.instances=40;
set spark.dynamicAllocation.enabled=true;
set spark.serializer=org.apache.spark.serializer.KryoSerializer;
点赞
收藏
评论区
推荐文章
blmius blmius
3年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
待兔 待兔
5个月前
手写Java HashMap源码
HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程22
Jacquelyn38 Jacquelyn38
3年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Wesley13 Wesley13
3年前
MySQL——性能优化
性能优化的思路1、首先需要使用慢查询功能,去获取所有查询时间比较长的SQL语句。MySQL——慢查询2、其次使用explain命令去查看有问题的SQL的执行计划。MySQL——执行计划EXPLAIN3、最后可以使用showprofile\s\查看有问题的SQL的性能使用情况。MySQL高级:showprofile
Wesley13 Wesley13
3年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Stella981 Stella981
3年前
HIVE 时间操作函数
日期函数UNIX时间戳转日期函数: from\_unixtime语法:   from\_unixtime(bigint unixtime\, string format\)返回值: string说明: 转化UNIX时间戳(从19700101 00:00:00 UTC到指定时间的秒数)到当前时区的时间格式举例:hive   selec
Stella981 Stella981
3年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Wesley13 Wesley13
3年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
11个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这
lix_uan
lix_uan
Lv1
学无止境,即刻前行
文章
7
粉丝
7
获赞
1