Hadoop-Hive

1. hive安装部署

2. hive基础

3. hive高级查询

4. Hive函数及性能优化

1.hive安装部署

解压tar -xvf ./apache-hive-3.1.2-bin.tar.gz -C /opt/soft/

改名mv apache-hive-3.1.2-bin/ hive312

配置环境变量:vim /etc/profile

#hive

export HIVE_HOME=/opt/soft/hive312

export PATH=$HIVE_HOME/bin:$PATH

更新环境变量:source /etc/profile

进入/opt/soft/hive312/conf

[root@kb129 lib]# pwd

拷贝MySQL8的连接驱动至/opt/soft/hive312/lib

修改配置文件:

(1)新建配置文件[root@kb129 conf]# vim ./hive-site.xml

<?xml version="1.0" encoding="UTF-8" standalone="no"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><!-- hdfs仓库路径 --><property><name>hive.metastore.warehouse.dir</name><value>/hive312/warehouse</value></property><!-- metastore元数据库类型 --><property><name>hive.metastore.db.type</name><value>mysql</value></property><!-- 连接MySQL字符串 --><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://192.168.142.129:3306/hive129?createDatabaseIfNotExist=true</value></property><!-- mysql连接驱动 --><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.cj.jdbc.Driver</value><!-- mysql连接密码 --><property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value></property><!-- 关闭schema验证 --><property><name>hive.metastore.schema.verification</name><value>false</value></property><!-- 打印当前库名 --><property><name>hive.cli.print.current.db</name><value>true</value></property><!-- 查询输出打印列名 --><property><name>hive.cli.print.header</name><value>true</value></property></configuration>

(2)删除hive中的guava-19.0.jar,将hadoop目录中的guava-27.0-jre.jar拷贝至hive312/lib目录下

cp /opt/soft/hadoop313/share/hadoop/common/lib/guava-27.0-jre.jar  /opt/soft/hive312/lib/

(3)hive初始化

[root@kb129 hive312]# schematool -dbType mysql -initSchema

(4)进入hive,创建数据库测试

[root@kb129 hive312]# hive

hive (default)> create database kb23DB

              > ;

OK

Time taken: 0.401 seconds

hive (default)> show databases;

OK

database_name

default

kb23db

Time taken: 0.082 seconds, Fetched: 2 row(s)

创建完成后HDFS系统中会生成

(注:hive如果关闭会进入异常模式,执行命令关闭:hdfs dfsadmin -safemode leave)

启动metastore元数据服务:[root@kb129 hive312]# nohup hive --service metastore &

启动hiveserver2远程服务:[root@kb129 hive312]# nohup hive --service hiveserver2 &

进入beeline客户端连接

使用datagrip连接

查找命令:查找当前目录下以gu开头的文件名

[root@kb129 lib]# find ./ -name gu*

./guava-19.0.jar

2.hive基础

2.1  hive

(1)基于Hadoop的数据仓库解决方案:

将结构化的数据文件映射为数据库表

提供类sql的查询语言HQL(Hive Query Language)

Hive让更多的人使用Hadoop

(2)Hive成为Apache顶级项目

Hive始于2007年的Facebook

官网:hive.apache.org

2.2  Hive的优势和特点

提供了一个简单的优化模型

HQL类SQL语法,简化MR开发

支持在不同的计算框架上运行

支持在HDFS和HBase上临时查询数据

支持用户自定义函数、格式

常用于ETL操作和BI

稳定可靠(真实生产环境)的批处理

有庞大活跃的社区

2.3  Hive元数据管理

(1)记录数据仓库中模型的定义、各层级间的映射关系

(2)存储在关系数据库中

1)默认Derby, 轻量级内嵌SQL数据库

Derby非常适合测试和演示

存储在.metastore_db目录中

2)实际生产一般存储在MySQL中

修改配置文件hive-site.xml

(3)HCatalog

将Hive元数据共享给其他应用程序

2.4  Hive操作-客户端交互模式

(1)检查Hive服务是否已经正常启动

(2)使用Hive交互方式(输入hive即可)

(3)使用beeline

1)需启动hiveserver2服务

nohup hive --service metastore &(非必须)

nohup hive --service hiveserver2 &

2)输入beeline进入beeline交互模式

!connect jdbc:hive2://kb129:10000

2.5Hive Interface – 其他使用环境

(1)Hive Web Interface

(2)Hue (Cloudera)

(3)Ambari Hive View (Hortonworks)

1)JDBC/ODBC(ETL工具,商业智能工具,集成开发环境)

2)Informatica, Talend

3)Tableau, QlikView, Zeppelin

4)Oracle SQL Developer, DB Visualizer等

2.6  Hive数据类型

- 基本数据类型

类似于SQL数据类型

类型

示例

类型

示例

TINYINT

10

SMALLINT

10

INT

10

BIGINT

100L

FLOAT

1.342

DOUBLE

1.234

DECIMAL

3.14

BINARY

1010

BOOLEAN

TRUE

STRING

'Book' or "Book"

CHAR

'YES' or "YES"

VARCHAR

'Book' or "Book"

DATE

'2013-01-31'

TIMESTAMP

'2020-01-31 00:13:00.345'

- 集合数据类型

ARRAY:存储的数据为相同类型

MAP:具有相同类型的键值对

STRUCT:封装了一组字段

类型

格式

定义

示例

ARRAY

['Apple','Orange','Mongo']

ARRAY<string>

a[0] = 'Apple'

MAP

{'A':'Apple','O':'Orange'}

MAP<string,string>

b['A'] = 'Apple'

STRUCT

{'Apple',2}

STRUCT<fruit:string,weight:int>

c.weight = 2

2.7  Hive数据结构

数据结构

描述

逻辑关系

物理存储(HDFS)

Database

数据库

表的集合

文件夹

Table

行数据的集合

文件夹

Partition

分区

用于分割数据

文件夹

Buckets

分桶

用于分布数据

文件

Row

行记录

文件中的行

Columns

列记录

每行中指定的位置

Views

视图

逻辑概念,可跨越多张表

不存储数据

Index

索引

记录统计数据信息

文件夹

2.8 数据库(Database)

(1)表的集合,HDFS中表现为一个文件夹

默认在hive.metastore.warehouse.dir属性目录下

(2)常用命令

查看细节:desc/describe database kb23db;

创建:create database aabb;

查看内容:show databases;

使用:use aabb;

查看当前使用的数据库:select current_database();

新增数据:insert into demo values(3,'wangwu');

覆写表格:insert overwrite table demo values(3,'wangwu');

删除:drop database [if exist] aabb;(非空数据库无法直接使用)

强制删除:drop database kb23db cascade;

查看日期:select `current_date`();

查看创建表/库的命令行细节:show create table/database demo;

更改表名:alter table demo2 rename to stu;

更改字段/列名:alter table stu change name uname string;

添加字段/列:alter table stu add columns(age int comment 'user_age');(comment注释)

添加多字段/列:alter table stu add columns(address string, email string);

替换字段/列(覆盖):alter table stu replace columns(id int, uname string, address string);

          

查看函数:show functions;

2.9 内部表

row format语法:DELIMITED关键字对 按照指定格式进行分割

ROW FORMAT

DELIMITED

[FIELDS TERMINATED BY char]

[COLLECTION ITEMS TERMINATED BY char]

[MAP KEYS TERMINATED BY char]

[LINES TERMINATED BY char]

[NULL DEFINED AS char](空位补值,默认为\N)

(1)创建内部表

create table student(

    id int,

    name string,

    hobbies array<string>,

    address map<string,string>

)

row format delimited fields terminated by ','

collection items terminated by '-'

map keys terminated by ':'

lines terminated by '\n';

(2)[root@kb129 kb23]# hdfs dfs -put ./student.txt /hive312/war

ehouse/kb23db.db/student

上传数据至表所属路径,执行select可以查询表内容

(3)加载hdfs数据:load data inpath '/kb23/hadoopstu/student.txt' into table student;

加载完数据后,hdfs原位置中文件转移到表中

加载centos本地数据:load data local inpath 'opt/kb23/student.txt'into table student;

(4)清空表数据

truncate table student;

(5)练习

employee文件

Michael|Montreal,Toronto|Male,30|DB:80|Product:DeveloperLead

Will|Montreal|Male,35|Perl:85|Product:Lead,Test:Lead

Shelley|New York|Female,27|Python:80|Test:Lead,COE:Architect

Lucy|Vancouver|Female,57|Sales:89,HR:94|Sales:Lead

转换成表:

create external table employee_external

(

    name         string,

    work_place   string,

    gender_age   struct<gender:string, age:int>,

    skills_score map<string,int>,

    depart_title map<string,array<string>>

)

    row format delimited fields terminated by '|'

        collection items terminated by ','

        map keys terminated by ':'

        lines terminated by '\n'

location '/kb23/hadoopstu/employeefile';

2.10   分区表

(1)关键字:partitioned by(age int)

(2)导入数据时添加年龄放置20分区:load data local inpath '/opt/kb23/student.txt'into table student2 partition (age=20);

(3)查看有多少分区字段:show partitions student2;

 

hdfs分区显示:

(4)添加分区:alter table student3 add partition (age = 10, gender = 'man');

  1. 删除分区:alter table student3 drop partition (age = 10, gender = 'man');

2.11  动态分区

-- 开启动态分区

set hive.exec.dynamic.partition=true;

-- 默认是strict

set hive.exec.dynamic.partition.mode=nonstrict;

插入数据后实现自动分区insert into studenttp1 partition (age, gender)  select id,name,hobbies,address,age,gender from studenttp;

2.12  外部表(hdfs中查看不到表,删除外部表不会删除location的文件数据)

create external table student_external

(

    id      int,

    name    string,

    hobbies array<string>,

    address map<string,string>

)

    row format delimited fields terminated by ','

    collection items terminated by '-'

    map keys terminated by ':'

    lines terminated by '\n'

location '/kb23/hadoopstu/stufile';

2.13  临时表(当前会话内有效,数据库资源不显示)

临时表是应用程序自动管理在复杂查询期间生成的中间数据的方法

表只对当前session有效,session退出后自动删除

表空间位于/tmp/hive-<user_name>(安全考虑)

如果创建的临时表表名已存在,实际用的是临时表

create temporary table tmp_employee as select name,work_place from employee_external;

2.14  查询

(1)查询字段属性为struct的内容

select * from employee_external where gender_age.gender = 'Female';

(2)多条件查询

select * from employee_external where name = 'Will'

union

select * from employee_external where gender_age.gender = 'Male'

union

select * from employee_external where gender_age.gender = 'Female';

create temporary table ctas_employee as

with r1 as (select * from employee_external where name = 'Will'),

     r2 as (select * from employee_external where gender_age.gender = 'Male'),

     r3 as (select * from employee_external where gender_age.gender = 'Female')

select * from r1 union select * from r2 union select * from r3;

(3)查询表的详情

desc formatted student3;

2.15  Hive建表

- 分隔符

Hive中默认分隔符

字段:^A(\001)

集合:^B(\002)

映射:^C(\003)

在hive中建表时可以指定分割符

-- 指定列分隔符语法

ROW FORMAT DELIMITED FIELDS TERMINATED BY '|'

- Storage SerDe

(1)SerDe:Serializer and Deserializer

(2)Hive支持不同类型的Storage SerDe

LazySimpleSerDe: TEXTFILE

BinarySerializerDeserializer:  SEQUENCEFILE

ColumnarSerDe: ORC, RCFILE

ParquetHiveSerDe: PARQUET

AvroSerDe: AVRO

OpenCSVSerDe: for CST/TSV

JSONSerDe

RegExSerDe

HBaseSerDe 

Hive建表高阶语句 - CTAS and WITH

(1)CTAS – as select方式建表

CREATE TABLE ctas_employee as SELECT * FROM employee;

CTAS不能创建partition, external, bucket table

(2)CTE (CTAS with Common Table Expression)

CREATE TABLE cte_employee AS

WITH

r1 AS  (SELECT name FROM r2 WHERE name = 'Michael'),

r2 AS  (SELECT name FROM employee WHERE sex_age.sex= 'Male'),

r3 AS  (SELECT name FROM employee  WHERE sex_age.sex= 'Female')

SELECT * FROM r1 UNION ALL SELECT * FROM r3;

(3)like只创建employee结构,并没有数据

CREATE TABLE employee_like LIKE employee;

2.16  分桶(Bucket)

分桶对应于HDFS中的文件

更高的查询处理效率

使抽样(sampling)更高效

一般根据"桶列"的哈希函数将数据进行分桶

分桶只有动态分桶

SET hive.enforce.bucketing = true;

定义分桶

CLUSTERED BY (employee_id) INTO 2 BUCKETS

必须使用INSERT方式加载数据

-- 创建分桶表

create table employee_id_buckets (

    name string,

    employee_id int,

    work_place array <string>,

    gender_age struct<gender:string, age:int>,

    skills_score map<string, int>,

    depart_title map<string, array<string>>

)

clustered by (employee_id) into 2 BUCKETS

row format delimited fields terminated by '|'

    collection items terminated by ','

    map keys terminated by ':'

    lines terminated by '\n';

select * from employee_id_buckets;

set map.reduce.tasks=2;

set hive.enforce.bucketing=true;

insert overwrite table employee_id_buckets select * from employee_id;

2.17   分桶抽样(Sampling)

随机抽样基于整行数据

随机条数据:select * from employee_id_buckets tablesample ( bucket 3 out of 16 on rand())s;

指定从16个桶中选择第3个桶的数据,并且使用随机的方式进行采样。

随机4条数据:select * from employee_id_buckets tablesample ( 4 rows )s;

随机20%数据:select * from employee_id_buckets tablesample ( 20 percent )s;

随机抽样基于指定列(使用分桶列更高效)

    SELECT * FROM table_name TABLESAMPLE(BUCKET 3 OUT OF 32 ON id) s;

2.18  Hive视图(View)

(1)视图概述

通过隐藏子查询、连接和函数来简化查询的逻辑结构

只保存定义,不存储数据

如果删除或更改基础表,则查询视图将失败

视图是只读的,不能插入或装载数据

(2)应用场景

将特定的列提供给用户,保护数据隐私

用于查询语句复杂的场景

(3)视图操作命令

CREATE、SHOW、DROP、ALTER

-- 创建视图,支持 CTE, ORDER BY, LIMIT, JOIN,等

CREATE VIEW view_name AS SELECT statement;

-- 查找视图 (SHOW VIEWS 在 hive v2.2.0之后)

SHOW TABLES;

-- 查看视图定义

SHOW CREATE TABLE view_name;

-- 删除视图

DROP view_name;

--更改视图属性

ALTER VIEW view_name SET TBLPROPERTIES ('comment' = 'This is a view');

-- 更改视图定义,

ALTER VIEW view_name AS SELECT statement;

create view employee_id_view as select name, work_place from employee_id_buckets;

select * from employee_id_view;

2.19  Hive侧视图(Lateral View)

(1)与表生成函数结合使用,将函数的输入和输出连接

(2)OUTER关键字:即使output为空也会生成结果

select name,work_place,loc from employee lateral view outer explode(split(null,',')) a as loc;

(3)支持多层级

select name,wps,skill,score from employee

lateral view explode(work_place) work_place_single as wps

lateral view explode(skills_score) sks as skill,score;

(4)通常用于规范化行或解析JSON

3.hive高级查询

3.1  WordCount

(1)创建表,加载数据

create table docs(line string);

load data local inpath '/opt/kb23/docs.txt' into table docs;

(2)查询

with

    t1 as ( select explode(split(line, ' ')) as word from docs )

select word, count(1) from t1 group by word order by word;

3.3  case when用法

select name, gender,

       case

           when gender = 'boy' then 1

           else 0 end as male,

       case

           when gender = 'girl' then 1

           else 0 end as female

from studenttp;

3.4  collect_set()去重集合,collect_list()列表

with

    t1 as(select name, gender,

            case when gender = 'boy' then 1 else 0 end as male,

            case when gender = 'girl' then 1 else 0 end as female,

            case when gender = 'girl' or gender = 'boy' then 1 else 0 end as tag

        from studenttp)

select collect_set(gender) colset,collect_list(gender) collist from t1 group by tag;

3.5  concat()和concat_ws()用法

with

    t1 as(select name, gender,

            case when gender = 'boy' then 1 else 0 end as male,

            case when gender = 'girl' then 1 else 0 end as female,

            case when gender = 'girl' or gender = 'boy' then 1 else 0 end as tag

        from studenttp),

    t2 as(select collect_set(gender) colset,collect_list(gender) collist from t1 group by tag)

select concat_ws(',',colset),concat_ws(',',collist) from t2;

3.6  综合练习:找出每位用户没有安装的app

(1)找出有哪些用户(分组去重)

select name from userapp group by name;

(2)笛卡尔积

select a.id, a.name, u.name uname from app a cross join (select name from userapp group by name) u;

(3)合并查询

with

    usertb as (select name from userapp group by name),

    userapp1 as (select a.id ,a.name , u.name uname from app as a cross join usertb as u),

    userapp2 as (select u1.name appname ,u1.uname from userapp1 u1 left join userapp u

    on u1.name=u.appname and u1.uname=u.name where u.name is null)

select uname, concat_ws("," ,collect_set(appname)) from userapp2 group by uname;

3.7  窗口函数

- 概述

(1)窗口函数是一组特殊函数

扫描多个输入行来计算每个输出值,为每行数据生成一行结果

可以通过窗口函数来实现复杂的计算和聚合

(2)语法

Function (arg1,..., arg n) OVER ([PARTITION BY <...>] [ORDER BY <....>] [<window_clause>])

PARTITION BY类似于GROUP BY,未指定则按整个结果集

只有指定ORDER BY子句之后才能进行窗口定义

可同时使用多个窗口函数

过滤窗口函数计算结果必须在外面一层

(3)按功能可划分为:排序,聚合,分析

- 排序

ROW_NUMBER()

对所有数值输出不同的序号,序号唯一连续

RANK()

对相同数值,输出相同的序号,下一个序号跳过(1,1,3)

DENSE_RANK()

对相同数值,输出相同的序号,下一个序号连续(1,1,2)

NLITE(n)切n片

将有序的数据集合平均分配到n个桶中, 将桶号分配给每一行,根据桶号,选取前或后 n分之几的数据

PERCENT_RANK()分区内数据压到0-1区间

(目前排名- 1)/(总行数- 1),值相对于一组值的百分比排名

- 聚合

COUNT()

计数,可以和DISTINCT一起用

SUM():求和

AVG():平均值

MAX()/MIN(): 最大/小值

从Hive 2.1.0开始在OVER子句中支持聚合函数

- 分析

CUME_DIST

小于等于当前值的行数/分组内总行数

LEAD/LAG(col,n)

某一列进行往前/后第n行值(n可选,默认为1)

FIRST_VALUE

对该列到目前为止的首个值

LAST_VALUE

到目前行为止的最后一个值

- 窗口定义-1

(1)窗口定义由[<window_clause>]子句描述

用于进一步细分结果并应用分析函数

(2)支持两类窗口定义

行类型窗口

范围类型窗口

(3)RANK、NTILE、DENSE_RANK、CUME_DIST、PERCENT_RANK、LEAD、LAG和ROW_NUMBER函数不支持与窗口子句一起使用

- 窗口定义-2

(1)行窗口:根据当前行之前或之后的行号确定的窗口

ROWS BETWEEN <start_expr> AND <end_expr>

(2)<start_expr>可以为下列值

UNBOUNDED PRECEDING : 窗口起始位置(分组第一行)

CURRENT ROW:当前行

N PRECEDING/FOLLOWING:当前行之前/之后n行

(3)<end_expr>可以为下列值

UNBOUNDED FOLLOWING :  窗口结束位置(分组最后一行)

CURRENT ROW:当前行

N PRECEDING/FOLLOWING:当前行之前/之后n行

- 窗口定义-3

范围窗口是取分组内的值在指定范围区间内的行

该范围值/区间必须是数字或日期类型

目前只支持一个ORDER BY列

设置本地模式:set mapred.framework.name=local;

4. Hive函数及性能优化

4.1  Hive函数分类

(1)从输入输出角度分类

标准函数:一行数据中的一列或多列为输入,结果为单一值

聚合函数:多行的零列到多列为输入,结果为单一值

表生成函数:零个或多个输入,结果为多列或多行

(2)从实现方式分类

内置函数

自定义函数

UDF:自定义标准函数

UDAF:自定义聚合函数

UDTF:自定义表生成函数

4.2  内置函数

(1)Hive提供大量内置函数供开发者使用

标准函数:字符函数、类型转换函数、数学函数、日期函数、集合函数、条件函数

聚合函数

表生成函数

4.3   字符函数

返回值

函数

描述

string

concat(string|binary A, string|binary B...)

对二进制字节码或字符串按次序进行拼接

int

instr(string str, string substr)

查找字符串str中子字符串substr出现的位置

int

length(string A)

返回字符串的长度

int

locate(string substr, string str[, int pos])

查找字符串str中的pos位置后字符串substr第一次出现的位置

string

lower(string A) /upper(string A)

将字符串A的所有字母转换成小写/大写字母

string

regexp_replace(string INITIAL_STRING, string PATTERN, string REPLACEMENT)

按正则表达式PATTERN将字符串中符合条件的部分替换成REPLACEMENT所指定的字符串

array

split(string str, string pat)

按照正则表达式pat来分割字符串str

string

substr(string|binary A, int start, int len)

substring(string|binary A, int start, int len)

对字符串A,从start位置开始截取长度为len的字符串并返回

string

trim(string A)

将字符串A前后出现的空格去掉

map

str_to_map(text[, delimiter1, delimiter2])

将字符串str按照指定分隔符转换成Map

binary

encode(string src, string charset)

用指定字符集charset将字符串编码成二进制值

4.4   类型转换函数和数学函数

返回值

类型转换函数

描述

"type"

cast(expr as <type>)

将expr转换成type类型 如:cast("1" as BIGINT) 将字符串1转换成了BIGINT类型

binary

binary(string|binary)

将输入的值转换成二进制

返回值

数学函数

描述

DOUBLE

round(DOUBLE a)

返回对a四舍五入的BIGINT值

binary

round(DOUBLE a, INT d)

返回对a四舍五入并保留d位小数位的值

BIGINT

floor(DOUBLE a)

向下取整,如:6.10->6   -3.4->-4

DOUBLE

rand(INT seed)

返回一个DOUBLE型随机数,seed是随机因子

DOUBLE

power(DOUBLE a, DOUBLE p)

计算a的p次幂

DOUBLE

abs(DOUBLE a)

计算a的绝对值

4.5  日期函数

返回值

函数

描述

string

from_unixtime(bigint unixtime[, string format])

将时间戳转换成format格式

int

unix_timestamp()

获取本地时区下的时间戳

bigint

unix_timestamp(string date)

将格式为yyyy-MM-dd HH:mm:ss的时间字符串转换成时间戳

string

to_date(string timestamp)

返回时间字符串的日期部分

int

year(string date),类似的有:

month/day/hour/minute/second/weekofyear

返回时间字符串的年份部分

返回月/天/时/分/秒/第几周

int

datediff(string enddate, string startdate)

计算开始时间到结束时间相差的天数

string

date_add(string startdate, int days)

从开始时间startdate加上days

string

date_sub(string startdate, int days)

从开始时间startdate减去days

date

current_date

返回当前时间的日期

timestamp

current_timestamp

返回当前时间戳

string

date_format(date/timestamp/string ts, string fmt)

按指定格式返回时间date 如:date_format("2016-06-22","MM-dd")=06-22

             

4.6   集合函数

返回值

函数

描述

int

size(Map<K.V>)

返回map中键值对个数

int

size(Array<T>)

返回数组的长度

array<K>

map_keys(Map<K.V>)

返回map中的所有key

array<V>

map_values(Map<K.V>)

返回map中的所有value

boolean

array_contains(Array<T>, value)

如该数组Array<T>包含value返回true。,否则返回false

array

sort_array(Array<T>)

对数组进行排序

4.7   条件函数

返回值

函数

描述

T

if(boolean testCondition, T valueTrue, T valueFalseOrNull)

如果testCondition 为true就返回valueTrue,否则返回valueFalseOrNull

T

nvl(T value, T default_value)

value为NULL返回default_value,否则返回value

T

COALESCE(T v1, T v2, ...)

返回第一非null的值,如果全部都为NULL就返回NULL

T

CASE a WHEN b THEN c

[WHEN d THEN e]* [ELSE f] END

如果a=b就返回c,a=d就返回e,否则返回f

T

CASE WHEN a THEN b

[WHEN c THEN d]* [ELSE e] END

如果a=ture就返回b,c= ture就返回d,否则返回e

boolean

isnull( a )

如果a为null就返回true,否则返回false

boolean

isnotnull ( a )

如果a为非null就返回true,否则返回false

4.8   聚合函数和表生成函数

(1)聚合函数

count、sum、max、min、avg、var_samp等

(2)表生成函数:输出可以作为表使用

返回值

函数

描述

N rows

explode(array<T>)

对于array中的每个元素生成一行且包含该元素

N rows

explode(MAP)

每行对应每个map键值对

其中一个字段是map的键,另一个字段是map的值

N rows

posexplode(ARRAY)

与explode类似,不同的是还返回各元素在数组中的位置

N rows

stack(INT n, v_1, v_2, ..., v_k)

把k列转换成n行,每行有k/n个字段,其中n必须是常数

tuple

json_tuple(jsonStr, k1, k2, ...)

从一个JSON字符串中获取多个键并作为一个元组返回,与get_json_object不同的是此函数能一次获取多个键值

4.9   Hive UDF开发流程

继承UDF类或GenericUDF类

重写evaluate()方法并实现函数逻辑

编译打包为jar文件

复制到正确的HDFS路径

使用jar创建临时/永久函数

调用函数

4.10  Hive UDF实现

Java IDE, JDK, Maven

继承UDF并重写evaluate()方法

演示:实现以下自定义函数

string_lower(letter) = LETTER

编译、测试和打包jar文件,上传jar并调用函数

上传[root@kb129 kb23]# hdfs dfs -put ./hive_udf-1.0-SNAPSHOT.jar /kb23

Hive优化参考hive优化大全-一篇就够了_hive 优化_GOD_WAR的博客-CSDN博客

Hive常见set的配置设置https://blog.csdn.net/sweet19920711/article/details/117930785 

Hive窗口函数参考Hive:窗口函数_hive窗口函数_花和尚也有春天的博客-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/78840.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

软件测试的基本流程是什么?软件测试流程详细介绍

软件测试和软件开发一样&#xff0c;是一个比较复杂的工作过程&#xff0c;如果无章法可循&#xff0c;随意进行测试势必会造成测试工作的混乱。为了使测试工作标准化、规范化&#xff0c;并且快速、高效、高质量地完成测试工作&#xff0c;需要制订完整且具体的测试流程。 01…

JavaScript的DOM操作(二)

一、元素的特性attribute 1.元素的属性和特性 前面我们已经学习了如何获取节点&#xff0c;以及节点通常所包含的属性&#xff0c;接下来我们来仔细研究元素Element。 我们知道&#xff0c;一个元素除了有开始标签、结束标签、内容之外&#xff0c;还有很多的属性&#xff0…

【算法与数据结构】450、LeetCode删除二叉搜索树中的节点

文章目录 一、题目二、解法三、完整代码 所有的LeetCode题解索引&#xff0c;可以看这篇文章——【算法和数据结构】LeetCode题解。 一、题目 二、解法 思路分析&#xff1a;本题首先要分析删除节点的五种情况&#xff1a; 1、没有找到节点2、找到节点 左右子树为空左子树为空…

微信小程序项目开发Day1

没接触过&#xff0c;直接看视频学习&#xff1a; 千锋教育微信小程序开发制作前端教程&#xff0c;零基础轻松入门玩转微信小程序_哔哩哔哩_bilibili千锋教育微信小程序开发制作前端教程&#xff0c;零基础轻松入门玩转微信小程序共计56条视频&#xff0c;包括&#xff1a;学…

软件工程课件

软件工程 考点概述软件工程概述能力成度模型能力成熟度模型集成软件过程模型逆向工程软件需求需求获取数据流图 需求定义 考点概述 重点章节 软件工程概述 之前老版教程的&#xff0c;之前考过 能力成度模型 记忆 能力等级 和 特点 能力成熟度模型集成 相比于CMM&#xff0c;第…

结合el-input、el-select实现纯前端过滤树形el-table数据

样式图示 1.搜索实现方法 const searchBtn async () > {// 获取table列表数据接口const res await Api.menuList({paging: false})if (res.code 200) {// 把树形结构转成扁平结构let result treeToArray(res.data)// 处理搜索框中数据进行table显示项过滤if(commonData…

分享!JetBrains IDE中的GitLab支持

GitLab是流行的基于git的软件开发和部署平台之一&#xff0c;虽然很长一段时间以来&#xff0c;所有基本git操作都已经可以通过GitLab实现&#xff0c;但GitLab集成仍是JetBrains社区的一大最热门请求。为此&#xff0c;JetBrains团队今年与GitLab联手提供了这种类型的集成。 …

2023年华为杯研究生数学建模竞赛辅导

2023年华为杯研究生数学建模竞赛辅导 各研究生培养单位&#xff1a; 中国研究生数学建模竞赛作为教育部学位管理与研究生教育司指导&#xff0c;中国学位与研究生教育学会、中国科协青少年科技中心主办的“中国研究生创新实践系列大赛”主题赛事之一&#xff0c;是一项面向在校…

使用阿里PAI DSW部署Stable Diffusion WebUI

进入到网址https://pai.console.aliyun.com/里边。 点击创建实例。 把实例名称填写好&#xff0c;选择GPU规格&#xff0c;然后选择实例名称是ecs.gn6v-c8g1.2xlarge。 选择stable-diffusion-webui-env:pytorch1.13-gpu-py310-cu117-ubuntu22.04&#xff0c;然后点击下一步。…

如何利用软文推广进行SEO优化(打造优质软文,提升网站排名)

在当今的互联网时代&#xff0c;SEO优化成为了网站推广的关键。而软文推广作为一种有效的推广方式&#xff0c;其优点不仅仅局限于SEO&#xff0c;还可以带来更多的曝光和用户流量。本文将深入探讨如何做好软文推广&#xff0c;从而提升网站排名和流量。 了解目标受众群体 内容…

springboot集成excel导入导出

1、引入依赖 <dependency><groupId>com.pig4cloud.excel</groupId><artifactId>excel-spring-boot-starter</artifactId><version>1.2.7</version> </dependency> 2、导出 ResponseExcel(name "测试列表") Post…

ORB-SLAM2_RGBD_DENSE_MAP编译、问题解决、离线加载TUM数据和在线加载D435i相机数据生成稠密地图

文章目录 0 引言1 安装依赖1.1 其他库安装1.2 pcl库安装 2 编译ORB-SLAM2_RGBD_DENSE_MAP2.1 build.sh2.2 build_ros.sh 3 运行ORB-SLAM2_RGBD_DENSE_MAP3.1 build.sh编译版本3.2 build_ros.sh编译版本 0 引言 ORB-SLAM2_RGBD_DENSE_MAP是基于ORB-SLAM2框架的一种RGB-D稠密地图…

【视频】Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析|数据分享...

全文下载链接&#xff1a;http://tecdat.cn/?p23544 在本文中&#xff0c;长短期记忆网络——通常称为“LSTM”——是一种特殊的RNN递归神经网络&#xff0c;能够学习长期依赖关系&#xff08;点击文末“阅读原文”获取完整代码数据&#xff09;。 本文使用降雨量数据&#xf…

基于FPGA的图像sobel锐化实现,包括tb测试文件和MATLAB辅助验证

目录 1.算法运行效果图预览 2.算法运行软件版本 3.部分核心程序 4.算法理论概述 5.算法完整程序工程 1.算法运行效果图预览 将FPGA的仿真结果导入到matlab显示图像效果 2.算法运行软件版本 MATLAB2022a,vivado2019.2 3.部分核心程序 .................................…

EMANE中olsrd的调试

1 调试目的 本着学习的态度&#xff0c;对emane tutorial中的示例程序进行重现&#xff0c;以加深对EMANE的理解和掌握。在示例程序0(见https://github.com/adjacentlink/emane-tutorial/wiki/Demonstration-0)中介绍了使用olsrlinkview.py脚本来通过可视化界面观察olsr节点的链…

基于Python的UG二次开发入门

文章目录 基于Python的UG二次开发入门1 二次开发环境搭建1.1 安装UG1.2 安装Pycharm1.3 环境配置1.4 测试 2 NX Open介绍2.1 基础架构2.1.1 Sessions and Parts2.1.2 Objects and Tags2.1.3 Factory Objects&#xff08;工厂对象&#xff09;2.1.4 Builder Objects&#xff08;…

9.14号作业

仿照vector手动实现自己的myVector&#xff0c;最主要实现二倍扩容功能 有些功能&#xff0c;不会 #include <iostream>using namespace std; //创建vector类 class Vector { private:int *data;int size;int capacity; public://无参构造Vector(){}//拷贝构造Vector(c…

【绝㊙️】三年开发内功心得

经典嵌套if-else问题 这个也是老生常谈问题了&#xff0c;不管哪里都能看到。 那如何解决 方法一&#xff08;重要&#xff09;&#xff1a; 如果逻辑分支过多&#xff0c; 即使你不解决嵌套if-slse&#xff0c;至少也要把每个 if的{}里的逻辑抽到一个独立的方法或者工具类…

微信小程序的疫苗接种预约设计与实现vue+uniapp

对于本小程序的疫苗预约的设计来说&#xff0c;系统开发主要是采用java语言&#xff0c;在整个系统的设计中应用MySql数据库来完成数据存储&#xff0c;具体根据疫苗预约信息的现状来进行开发的&#xff0c;具体根据现实的需求来实现疫苗预约网络化的管理&#xff0c;各类信息有…

uniapp中video播放视频上按钮没显示的问题

video标签层级很高&#xff0c;尝试了添加z-index&#xff0c;但无效果 通过查阅资料&#xff0c;得知cover-view层级比video层级高 效果图 需求是为了使直播时&#xff0c;可选是原画/流畅 解决方案 首先&#xff0c;在pages.json中配置右上角的图标 {"path" : …