HiveQL: 数据定义

文章目录

    • 1. Hive 数据库
    • 2. 修改数据库
    • 3. 创建表
      • 3.1 管理表
      • 3.2 外部表
    • 4. 分区表、管理表
    • 5. 删除表
    • 6. 修改表

学习自《Hive编程指南》

1. Hive 数据库

  • create database DBname;
hive (default)> show databases;
OK
default
hive
Time taken: 0.023 seconds, Fetched: 2 row(s)
hive (default)> create database students;
OK
Time taken: 0.066 seconds
hive (default)> show databases;
OK
default
hive
students
Time taken: 0.016 seconds, Fetched: 3 row(s)
  • create database if not exists students; 如果存在同名的表,不会报错(对于连续执行很有用,不会中断)
hive (default)> create database students;
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Database students already exists
hive (default)> create database if not exists students;
OK
Time taken: 0.016 seconds
  • show databases like "s.*"; 搜索以 xxx 开头的数据库
hive (default)> show databases like "s.*";
OK
students
  • hive (default)> dfs -ls -R /; 查看数据库在hadoop中的位置

  • 自定义hadoop路径 location '/mydb';

hive (default)> create database test> location '/mydb';
  • 创建注释 comment "注释字符串 just test comment!";
hive (default)> create database test1> comment "just test comment!";
OK
Time taken: 0.06 secondshive (default)> describe database test1;
OK
test1	just test comment!	hdfs://localhost:9000/user/hive/warehouse/test1.db	hadoop	USER	
Time taken: 0.018 seconds, Fetched: 1 row(s)
  • 增加相关键值对 with dbproperties ('created'="michael", "date"='2021-04-06')
  • describe database extended test2; 显示附件键值对信息
hive (default)> create database test2> with dbproperties ('created'="michael", "date"='2021-04-06');
OK
Time taken: 0.728 secondshive (default)> describe database extended test2;
OK
test2		hdfs://localhost:9000/user/hive/warehouse/test2.db	hadoop	USER	{date=2021-04-06, created=michael}
Time taken: 0.022 seconds, Fetched: 1 row(s)
  • 切换数据库 use 数据库名
hive (default)> show databases;
OK
default
hive
students
test
test1
test2
Time taken: 0.641 seconds, Fetched: 6 row(s)hive (default)> use students;
OK
Time taken: 0.027 seconds
hive (students)> 

注:cmd里显示数据库名,需要 vim /usr/local/hive/bin/.hiverc
添加 set hive.cli.print.current.db=true;

  • 删除数据库 drop database if exists test2数据库名;

2. 修改数据库

hive (default)> alter database student set dbproperties('created by'='Michael ming');hive (default)> describe database extended student;
student		hdfs://localhost:9000/user/hive/warehouse/student.db	hadoop	USER	{created by=Michael ming}hive (default)> alter database student set dbproperties('created by'='Michael haha');hive (default)> describe database extended student;
student		hdfs://localhost:9000/user/hive/warehouse/student.db	hadoop	USER	{created by=Michael haha}

3. 创建表

hive (default)> create table if not exists employees(> name string comment "employee name",> salary float comment "employee salary",> subordinates array<string> comment "name of subordinates",> deductions map<string, float> comment "key is name, value is percentages",> address struct<street:string, city:string, state:string, zip:int> comment "home address")> comment "info of employees"> location '/employees'> tblproperties('created_by'='michael ming', 'created_at'='2021-04-06 20:00:00');
OK
Time taken: 0.344 secondshive (default)> show tables;
OK
employee
employees
student1
Time taken: 0.057 seconds, Fetched: 3 row(s)
  • 显示 表属性 show tblproperties employees;
hive (default)> show tblproperties employees;
OK
comment	info of employees
created_at	2021-04-06 20:00:00
created_by	michael ming
transient_lastDdlTime	1617710228
Time taken: 0.093 seconds, Fetched: 4 row(s)
  • 复制表的模式,不拷贝数据 like 要复制的表名
hive (default)> create table if not exists employees1> like employees;
OK
Time taken: 0.193 secondshive (default)> show tables;
OK
employees
employees1
student1
Time taken: 0.022 seconds, Fetched: 3 row(s)
  • 过滤查找
hive (default)> show tables "emp.*";
OK
employees
employees1
  • 展示表的结构信息 extended,formatted (更常用)describe formatted employees;
hive (default)> describe extended employees;
OK
name                	string              	employee name       
salary              	float               	employee salary     
subordinates        	array<string>       	name of subordinates
deductions          	map<string,float>   	key is name, value is percentages
address             	struct<street:string,city:string,state:string,zip:int>	home address        Detailed Table Information	Table(tableName:employees, dbName:default, owner:hadoop, createTime:1617710228, lastAccessTime:0, retention:0, sd:StorageDescriptor(cols:[FieldSchema(name:name, type:string, comment:employee name), FieldSchema(name:salary, type:float, comment:employee salary), FieldSchema(name:subordinates, type:array<string>, comment:name of subordinates), FieldSchema(name:deductions, type:map<string,float>, comment:key is name, value is percentages), FieldSchema(name:address, type:struct<street:string,city:string,state:string,zip:int>, comment:home address)], location:hdfs://localhost:9000/employees, inputFormat:org.apache.hadoop.mapred.TextInputFormat, outputFormat:org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat, compressed:false, numBuckets:-1, serdeInfo:SerDeInfo(name:null, serializationLib:org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, parameters:{serialization.format=1}), bucketCols:[], sortCols:[], parameters:{}, skewedInfo:SkewedInfo(skewedColNames:[], skewedColValues:[], skewedColValueLocationMaps:{}), storedAsSubDirectories:false), partitionKeys:[], parameters:{transient_lastDdlTime=1617710228, created_at=2021-04-06 20:00:00, comment=info of employees, created_by=michael ming}, viewOriginalText:null, viewExpandedText:null, tableType:MANAGED_TABLE)	
Time taken: 0.746 seconds, Fetched: 7 row(s)hive (default)> describe formatted employees;
OK
# col_name            	data_type           	comment             name                	string              	employee name       
salary              	float               	employee salary     
subordinates        	array<string>       	name of subordinates
deductions          	map<string,float>   	key is name, value is percentages
address             	struct<street:string,city:string,state:string,zip:int>	home address        # Detailed Table Information	 	 
Database:           	default             	 
Owner:              	hadoop              	 
CreateTime:         	Tue Apr 06 19:57:08 CST 2021	 
LastAccessTime:     	UNKNOWN             	 
Retention:          	0                   	 
Location:           	hdfs://localhost:9000/employees	 
Table Type:         	MANAGED_TABLE       	 
Table Parameters:	 	 comment             	info of employees   created_at          	2021-04-06 20:00:00 created_by          	michael ming        transient_lastDdlTime	1617710228          # Storage Information	 	 
SerDe Library:      	org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe	 
InputFormat:        	org.apache.hadoop.mapred.TextInputFormat	 
OutputFormat:       	org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat	 
Compressed:         	No                  	 
Num Buckets:        	-1                  	 
Bucket Columns:     	[]                  	 
Sort Columns:       	[]                  	 
Storage Desc Params:	 	 serialization.format	1                   
Time taken: 0.069 seconds, Fetched: 32 row(s)

3.1 管理表

也叫内部表,删除管理表时,数据也会被删除

3.2 外部表

删除外部表 external,只会删除表的元信息,不会删除数据

hive (default)> create external table if not exists extstudent(> id int,> name string,> sex string,> age int,> course string)> row format delimited fields terminated by '\t'> location '/home/hadoop/workspace/student.txt';
OK
hive (default)> load data local inpath '/home/hadoop/workspace/student.txt' overwrite into table extstudent;
Loading data to table default.extstudent
OK
Time taken: 1.117 secondshive (default)> select * from extstudent;
OK
1	michael	male	18	bigdata
2	ming	male	19	AI
3	lili	female	18	math
4	huahua	female	20	AI
Time taken: 0.768 seconds, Fetched: 4 row(s)
  • 输入 describe formatted extstudent;,显示有 Table Type: EXTERNAL_TABLE 外部表

4. 分区表、管理表

分区用来水平分散压力,提高查询速度 partitioned by

hive (default)> create table stu(> id int,> name string)> partitioned by (country string, sex string)> row format delimited fields terminated by '\t';
OK
Time taken: 0.041 secondshive (default)> load data local inpath '/home/hadoop/workspace/student.txt' overwrite into table stu partition(country='china', sex='male');
Loading data to table default.stu partition (country=china, sex=male)
OK
Time taken: 0.294 seconds
hive (default)> select * from stu;
OK
1	michael	china	male
2	ming	china	male
3	lili	china	male
4	huahua	china	male
Time taken: 0.069 seconds, Fetched: 4 row(s)
# dfs -ls -R / 显示文件
drwxr-xr-x   - hadoop supergroup          0 2021-04-06 22:50 /user/hive/warehouse/stu
drwxr-xr-x   - hadoop supergroup          0 2021-04-06 22:50 /user/hive/warehouse/stu/country=china
drwxr-xr-x   - hadoop supergroup          0 2021-04-06 22:50 /user/hive/warehouse/stu/country=china/sex=male
-rwxr-xr-x   1 hadoop supergroup        114 2021-04-06 22:50 /user/hive/warehouse/stu/country=china/sex=male/student.txt
  • 展示分区 show partitions
hive (default)> show partitions stu;
OK
country=china/sex=male
Time taken: 0.075 seconds, Fetched: 1 row(s)
  • set hive.mapred.mode=strict; 严格模式,需要带where过滤才行,避免超大的查询任务
hive (default)> set hive.mapred.mode=strict;
hive (default)> select * from stu;
FAILED: SemanticException Queries against partitioned tables without a partition filter are disabled for safety reasons. If you know what you are doing, please make sure that hive.strict.checks.large.query is set to false and that hive.mapred.mode is not set to 'strict' to enable them. No partition predicate for Alias "stu" Table "stu"
hive (default)> select * from stu where country='china';
OK
1	michael	china	male
2	ming	china	male
3	lili	china	male
4	huahua	china	male
Time taken: 0.402 seconds, Fetched: 4 row(s)
  • set hive.mapred.mode=nonstrict; 不严格模式
hive (default)> set hive.mapred.mode=nonstrict;
hive (default)> select * from stu;
OK
1	michael	china	male
2	ming	china	male
3	lili	china	male
4	huahua	china	male
Time taken: 0.077 seconds, Fetched: 4 row(s)
  • 只查看指定分区
hive (default)> show partitions stu partition(country='china');
OK
country=china/sex=male
  • describe formatted stu; 也会显示分区信息
hive (default)> describe formatted stu;
OK
# col_name            	data_type           	comment             id                  	int                 	                    
name                	string              	                    # Partition Information	 	 
# col_name            	data_type           	comment             country             	string              	                    
sex                 	string   
省略。。。           	                    
  • 添加分区 alter table stu add partition(country='china1', sex='female');

5. 删除表

drop table if exists 表名;

6. 修改表

使用 alter table 语句,会修改元数据,但不会修改数据本身

  • 重命名 表
hive (default)> alter table stu rename to stu_new;
  • 增加多个分区
hive (default)> alter table stu_new add if not exists> partition(country='USA', sex='male')> partition(country='RUS', sex='male');hive (default)> show partitions stu_new;
country=RUS/sex=male
country=USA/sex=male
country=china/sex=male
country=china1/sex=female
  • 修改分区路径
hive (default)> alter table stu_new partition(country='china', sex='male')> set location "/user/hive/warehouse/mypath";
  • 删除分区
hive (default)> alter table stu_new drop if exists partition(country='USA',sex='male');
Dropped the partition country=USA/sex=male
OK
Time taken: 0.404 seconds
  • 修改列信息
hive (default)> alter table stu_new> change column id new_id int> comment "changed new_id";
hive (default)> describe stu_new;
OK
new_id              	int                 	changed new_id      
name                	string              	                    
country             	string              	                    
sex                 	string              	                    # Partition Information	 	 
# col_name            	data_type           	comment             country             	string              	                    
sex                 	string              	         

还可以修改字段位置 追加 after 字段 或者 first,请同时修改数据以匹配

  • 增加列
    在分区字段之前,增加新的字段到已有字段之后
hive (default)> alter table stu_new add columns(> height int comment "height of people",> hobby string comment "likes things");
OK
Time taken: 0.074 seconds
hive (default)> describe stu_new;
OK
new_id1             	float               	changed new_id1 float
name                	string              	                    
height              	int                 	height of people    
hobby               	string              	likes things        
country             	string              	                    
sex                 	string              	                    # Partition Information	 	 
# col_name            	data_type           	comment             country             	string              	                    
sex                 	string              	   
  • 删除、替换列 replace columns
    下面例子移除了之前所有的字段,并指定新的字段:
hive (default)> alter table stu_new replace columns(> c1 float comment "column  1",> c2 string,> c3 float comment 'column 3');hive (default)> describe stu_new;
OK
c1                  	float               	column  1           
c2                  	string              	                    
c3                  	float               	column 3            
country             	string              	                    
sex                 	string              	                    # Partition Information	 	 
# col_name            	data_type           	comment             country             	string              	                    
sex                 	string              	 

注意:需要数据类型兼容(原来是float ,不能改为 int)

  • 修改表属性
    增加或修改属性,但无法删除属性
hive (default)> show tblproperties stu_new;
last_modified_by	hadoop
last_modified_time	1617749844
transient_lastDdlTime	1617749844hive (default)> alter table stu_new set tblproperties(> 'creator' = 'michael',> 'ok' = 'good');hive (default)> show tblproperties stu_new;
creator	michael
last_modified_by	hadoop
last_modified_time	1617750323
ok	good
transient_lastDdlTime	1617750323hive (default)> alter table stu_new set tblproperties(> 'creator' = 'ming');hive (default)> show tblproperties stu_new;
creator	ming
last_modified_by	hadoop
last_modified_time	1617750355
ok	good
transient_lastDdlTime	1617750355
  • 修改存储属性

修改文件格式

hive (default)> alter table stu_new> set fileformat textfile;hive (default)> alter table stu_new> partition(country='china', sex='male')> set fileformat sequencefile;

修改 Serde,并指定属性

hive (default)> alter table stu_new> set serde 'com.example.mySerDe' # 不改,就不需要这句> with serdeproperties(> 'prop1'='v1',> 'prop2'='v2');
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. at least one column must be specified for the table

修改存储属性

hive (default)> alter table stu_new> clustered by (c1, c2)> sorted by (c3) # 可选> into 5 buckets;
  • 其他修改表语句

在 hive 之外文件被修改了,就会触发”钩子“的执行???

hive (default)> alter table stu_new touch> partition(country='china', sex='male');
hive -e "alter table stu_new touch partition(country='china', sex='male');"

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/472421.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

can协议crc计算_详解CAN/CAN FD通信中的循环冗余校验(CRC)方法

数据校验是为保证数据的完整性进行的一种验证操作。CAN通信采用CRC校验作为一种重要的错误检测手段,是节点判断CAN帧信息的完整性并产生确认应答的依据。在现场总线通信和控制的实际应用中,工业应用环境往往是极端的温度以及电磁噪声或是其他的恶劣环境,系统在这种条件下能否正…

PHP操作excel类 PHPExcel

PHP操作excel类 PHPExcel http://www.cr173.com/soft/40741.html 我的微云&#xff1a;http://share.weiyun.com/2db79f1438f87999cfb09ca05890d764 下载后&#xff1a; Tests/01simple.php 看代码就可以了 很简单 -------------------- 我的案例(打包)&#xff1a; 将dede…

天玑720支持鸿蒙系统吗,天玑720属于骁龙多少 天玑720处理器相当于骁龙几

天玑700是一款最新推出的5G入门级别的处理器&#xff0c;那么这款手机芯片相当于骁龙多少处理器&#xff1f;处理器性能怎么样&#xff1f;小编为大家带来最新的手机资讯对此感兴趣的小伙伴&#xff0c;快来看看吧。天玑700相当于骁龙多少&#xff1f;在手机的性能方面相当于骁…

html5 职工入职后台管理系统_ChemCMS是一款基于GO+PHP+MYSQL+HTML5构建的化学内容管理系统

ChemCMS是一款基于GOPHPMYSQLHTML5构建的化学内容管理系统&#xff0c;旨在提高化学类企业信息化管理水平&#xff0c;ChemCMS提供了行业所需的库存管理、订单管理、产品管理、客户管理、权限管理全部解决方案&#xff0c;同时我们还提供一体化的在线商城解决方案&#xff0c;大…

oem718d 基准站设置_RTK电台、网络模式作业设置流程

RTK作业的简要流程仪器架设完成基准站和移动站硬件架设与配置&#xff0c;搭建作业的硬件环境。新建工程创建工程&#xff0c;配置参数、坐标等基础信息&#xff0c;完成作业所需的数据基础。求转换参数匹配工程所需平面坐标和默认经纬度坐标&#xff0c;在作业中直接获得所需目…

委托和事件

事件的由来 上文说到委托的安全性不佳&#xff0c;于是我们要将委托本身私有化&#xff0c;但还要暴露若干方法让外界使用。其中最重要的必然就是为委托挂接方法和调用委托&#xff0c;以便间接地调用委托所代表方法。那么事件event关键字就是c#提供给我们的一个语法糖。他并没…

ios html高度自适应,iOS UILabel高度自适应终结篇

释放双眼&#xff0c;带上耳机&#xff0c;听听看~&#xff01;网上大部分的boundingRectWithSize和sizeWithFont 计算出来的宽高在某些有特殊情况下(如链接中有n等等)计算出来的还是有偏差不准&#xff0c;此时用NSAttributedString和label的attributedText计算会迎刃而解1.给…

HiveQL: 数据操作

文章目录1. 向管理表中装载数据2. 通过查询语句向表中插入数据3. 动态分区插入4. 从单个查询语句创建表并加载数据5. 导出数据学习自《Hive编程指南》 1. 向管理表中装载数据 hive (default)> load data local inpath "/home/hadoop/workspace/student.txt">…

formdata.append加多个值_redis的五种数据结构和应用场景:微博微信点赞+加购物车等...

Redis五种数据结构如下&#xff1a;1.String 字符串类型是redis中最基本的数据类型&#xff0c;一个key对应一个value。String类型是二进制安全的&#xff0c;意思是 redis 的 string 可以包含任何数据。如数字&#xff0c;字符串&#xff0c;jpg图片或者序列化的对象。2.Hash …

bakaxl启动器怎么导入整合包_bakaxl启动器加皮肤光影mod

bakaxl启动器加皮肤光影mod是一款超级有趣的像素风格的冒险类的手游哦&#xff0c;此次为玩家带来的是不一样的游戏模组哦&#xff0c;在这里玩家可以拥有超级多的任务可以进行&#xff0c;你可以随时开启地图探索哦&#xff0c;你还可以将全新获得的材质包加入其中&#xff0c…

iOS开发-自动隐藏键盘及状态栏

1.隐藏状态栏 iOS升级至7.0以后&#xff0c;很多API被废止&#xff0c;其中原有隐藏状态栏StatusBar的方法就失效了。 原有方案 [[UIApplication sharedApplication] setStatusBarHidden:YES]; 但很不幸&#xff0c;在后来的版本中实效了&#xff0c;因此我们可以使用新的API来…

python gevent模块 下载_【python安全攻防】包、模块、类、对象

终于又到了一周一度的整理博客的时间了&#xff0c;博主平时课余时间看书&#xff0c;周末统一整理&#xff0c;坚持周更真是爱了爱了 &#xff5e;今天要说的是python面向对象这一部分的内容&#xff0c;今天这是基础篇的第二篇&#xff0c;也是最后一篇。说来基础篇还真是少呢…

LeetCode LCP 33. 蓄水(暴力枚举)

文章目录1. 题目2. 解题1. 题目 给定 N 个无限容量且初始均空的水缸&#xff0c;每个水缸配有一个水桶用来打水&#xff0c;第 i 个水缸配备的水桶容量记作 bucket[i]。小扣有以下两种操作&#xff1a; 升级水桶&#xff1a;选择任意一个水桶&#xff0c;使其容量增加为 buck…

svr公式推导_ML-支持向量:SVM、SVC、SVR、SMO原理推导及实现

目录1.导出目标2拉格朗日转换3对偶问题&#xff1a;因为是希望得出L最小时的一些参数w,b,a&#xff0c;但是目前很难一起求得最佳参数&#xff0c;所以换个思路。因为&#xff1a;所以能够容易的计算出拉格朗日乘子a约束时的最坏情况是&#xff1a;但是m个a的值还是无法求出&am…

302状态码_你见过 HTTP 哪些状态码?

❝好久没有写技术文章&#xff0c;今天在四川广元无事&#xff0c;总结一篇。附一张今天早上在嘉陵江遇见的白鹡鸰 (不是我拍的)❞白鹡鸰101 Switch Protocol200 Ok201 Created204 No Content206 Partial Content301 Moved Permanently302 Found304 Not Modified307 Temporary …

羽毛球 机器人 Robocon 2015 泰国预选赛(全国大学生机器人竞赛)

羽毛球 机器人 Robocon 2015 泰国预选赛(全国大学生机器人竞赛) 我把视频传我的优酷上了, 大家可以看看 http://i.youku.com/pomodori posted on 2015-02-04 11:26 rex686568 阅读(...) 评论(...) 编辑 收藏 转载于:https://www.cnblogs.com/Pomodori/p/4316622.html

山西大学计算机应用专业,山西大学计算机应用技术专业

在主要课程学完并确定论文题目后&#xff0c;研究生撰写论文的时间为一年半至两年。(一)论文选题的要求1. 选题必须有一定的理论意义或应用价值论文选题必须对国民经济建设或在学术上有一定的价值。2&#xff0e;国内外研究动态论文选题时&#xff0c;学生必须掌握与该课题有关…

LeetCode LCP 34. 二叉树染色(树上DP)

文章目录1. 题目2. 解题1. 题目 小扣有一个根结点为 root 的二叉树模型&#xff0c;初始所有结点均为白色&#xff0c;可以用蓝色染料给模型结点染色&#xff0c;模型的每个结点有一个 val 价值。 小扣出于美观考虑&#xff0c;希望最后二叉树上每个蓝色相连部分的结点个数不能…

uart口图片_uart 加强了的串口调试助手,可以自动记录传输数据,并且显示图片,示波器等功能 Com Port 编程 267万源代码下载- www.pudn.com...

文件名称: uart下载 收藏√ [5 4 3 2 1 ]开发工具: C#文件大小: 10479 KB上传时间: 2014-06-06下载次数: 62提 供 者: 林元峰详细说明&#xff1a;加强了的串口调试助手&#xff0c;可以自动记录传输数据&#xff0c;并且显示图片&#xff0c;示波器等功能-Enhanced seri…

delphi 串口通信发送_关于串口通信232、485、422和常见问题,就没见过能讲这么清楚的...

先讲串口通信的一些基本概念&#xff0c;术语。如果对串口通信比较熟悉的&#xff0c;就当复习&#xff0c;如果哪里讲的不到位&#xff0c;欢迎及时指出。这里并不对串口的编程作讲解&#xff0c;主要是从应用的角度去讲一讲。因为更多的时候&#xff0c;都是产品做好了&#…