Python3通过JDBC访问非Kerberos环境的Impala

Stella981
• 阅读 667

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github:

https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1.文档编写目的


在前面Fayson介绍了在Python2的环境下《如何使用Python Impyla客户端连接Hive和Impala》及《Python3环境通过JDBC访问非Kerberos环境的Hive》,本篇文章Fayson在Python3的环境下使用Impyla访问非Kerberos环境下的Impala以及将获取到的结果集转换为Pandas的DataFrame。

  • 本次Fayson的测试环境为

1.CM5.14.3和CDH5.14.2

2.Redhat7.4

3.Python 3.6.5

2.前置环境准备及说明


在使用Impyla访问Hive前,需要安装Python的依赖包,具体需要安装的依赖包列表如下:

sixbit_arrayimpylathriftthrift_sasl==0.2.0

(可左右滑动)

1.Python3的安装目录在/opt/cloudera/anaconda3

Python3通过JDBC访问非Kerberos环境的Impala

2.升级Python的pip版本

[root@cdh02 ~]# /opt/cloudera/anaconda3/bin/pip install --upgrade pip

(可左右滑动)

Python3通过JDBC访问非Kerberos环境的Impala

3.使用Python3的pip安装上述的依赖包

/opt/cloudera/anaconda3/bin/pip install six/opt/cloudera/anaconda3/bin/pip install bit_array/opt/cloudera/anaconda3/bin/pip install thrift/opt/cloudera/anaconda3/bin/pip install thrift_sasl==0.2.0/opt/cloudera/anaconda3/bin/pip install impyla

(可左右滑动)

Python3通过JDBC访问非Kerberos环境的Impala

Python3通过JDBC访问非Kerberos环境的Impala

Python3通过JDBC访问非Kerberos环境的Impala

3.Python3访问Hive示例代码


[root@cdh02 python_code]# vim impaly_impala.py from impala.dbapi import connectfrom impala.util import as_pandasconn = connect(host='cdh01.fayson.com',port=25004,database='default')print(conn)cursor = conn.cursor()cursor.execute('show databases')results = cursor.fetchall()print(results)cursor.execute('select * from ods_user limit 10')df = as_pandas(cursor)print(df)

(可左右滑动)

Python3通过JDBC访问非Kerberos环境的Impala

4.示例运行


在服务上使用如下命令运行Python代码

[root@cdh02 python_code]# /opt/cloudera/anaconda3/bin/python impaly_impala.py 

(可左右滑动)

Python3通过JDBC访问非Kerberos环境的Impala

5.总结


1.Impyla包既可以访问Hive也可以访问Impala,所以在使用Impyla访问Impala时也需要安装相应的依赖包。

2.在使用Impyla访问非Kerberos环境的Impala时,不需要指定user和auth_mechanism参数,否则会连接失败。

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

Python3通过JDBC访问非Kerberos环境的Impala

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

本文分享自微信公众号 - Hadoop实操(gh_c4c535955d0f)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

点赞
收藏
评论区
推荐文章
blmius blmius
3年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
待兔 待兔
3个月前
手写Java HashMap源码
HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程22
Jacquelyn38 Jacquelyn38
3年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Stella981 Stella981
3年前
Kerberos环境下删除ZooKeeper服务注册信息问题分析
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。1.问题描述在CDH集群中启用了Kerberos服务后,通过zookeeperclient登录Kerberos删除服务的注册信息时报“Authenticationisnotvalid”,具体操作及异常信息如下。Fayson这里已经使用fays
Stella981 Stella981
3年前
Spark2Streaming读Kerberos环境的Kafka并写数据到HBase
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。Fayson的github:https://github.com/fayson/cdhproject提示:代码块部分可以左右滑动查看噢1.文档编写目的在前面的文章Fayson介绍了在Kerberos环境下《Sp
Stella981 Stella981
3年前
Python3环境通过JDBC访问非Kerberos环境的Hive
1.文档编写目的在前面Fayson介绍了在Python2的环境下《如何使用PythonImpyla客户端连接Hive和Impala》,本篇文章Fayson主要介绍在Python3的环境下使用Impyla访问非Kerberos环境下的Hive以及将获取到的结果集转换为Pandas的DataFrame。内容
Stella981 Stella981
3年前
Spark2Streaming读Kerberos环境的Kafka并写数据到HDFS
温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。Fayson的github:https://github.com/fayson/cdhproject提示:代码块部分可以左右滑动查看噢1.文档编写目的在前面的文章Fayson介
Stella981 Stella981
3年前
Impala的Short
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。Fayson的github:https://github.com/fayson/cdhproject提示:代码块部分可以左右滑动查看噢1.HDFS的ShortCircuitLocalReads我们知道读取HDF
Wesley13 Wesley13
3年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
9个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这