hive数据库查看参数/hive查看当前环境配置

文章目录

  • 一、hive查看当前环境配置命令

在一次hive数据库执行命令 set ngmr.exec.mode=cluster时,想看一下 ngmr.exec.mode参数原先的值是什么,所以写一下本篇博文,讲一下怎么查看hive中的参数。

一、hive查看当前环境配置命令

  • set :可以查看所有参数
  • set -v :可得到所有环境变量。如果没有-v参数,只显示与hadoop不同的配置。
  • set 具体参数: 返回具体参数对应的值

案例一:set 具体参数

# 返回mapreduce.map.memory.mb参数的值
set mapreduce.map.memory.mb;

在这里插入图片描述
案例二:set 查询所有变量

set;

案例三:set -v查询所有环境变量

hive> set -v;
silent=off
fs.s3n.impl=org.apache.hadoop.fs.s3native.NativeS3FileSystem
datanucleus.validateColumns=false
mapred.task.cache.levels=2
hadoop.tmp.dir=/home/hexianghui/datahadoop
hadoop.native.lib=true
map.sort.class=org.apache.hadoop.util.QuickSort
ipc.client.idlethreshold=4000
mapred.system.dir=${hadoop.tmp.dir}/mapred/system
hive.script.serde=org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
mapred.job.tracker.persist.jobstatus.hours=0
io.skip.checksum.errors=false
fs.default.name=hdfs://192.168.0.4:9000
mapred.child.tmp=./tmp
datanucleus.cache.level2=false
mapred.skip.reduce.max.skip.groups=0
mapred.jobtracker.instrumentation=org.apache.hadoop.mapred.JobTrackerMetricsInst
mapred.tasktracker.dns.nameserver=default
io.sort.factor=10
hive.metastore.rawstore.impl=org.apache.hadoop.hive.metastore.ObjectStore
hive.metastore.local=true
mapred.task.timeout=600000
mapred.max.tracker.failures=4
hadoop.rpc.socket.factory.class.default=org.apache.hadoop.net.StandardSocketFactory
fs.hdfs.impl=org.apache.hadoop.hdfs.DistributedFileSystem
mapred.queue.default.acl-administer-jobs=*
mapred.queue.default.acl-submit-job=*
mapred.skip.map.auto.incr.proc.count=true
io.mapfile.bloom.size=1048576
tasktracker.http.threads=40
mapred.job.shuffle.merge.percent=0.66
fs.ftp.impl=org.apache.hadoop.fs.ftp.FTPFileSystem
io.bytes.per.checksum=512
mapred.output.compress=false
hive.test.mode.prefix=test_
hive.test.mode=false
hive.exec.compress.intermediate=false
topology.node.switch.mapping.impl=org.apache.hadoop.net.ScriptBasedMapping
datanucleus.cache.level2.type=SOFT
mapred.reduce.slowstart.completed.maps=0.05
mapred.reduce.max.attempts=4
fs.ramfs.impl=org.apache.hadoop.fs.InMemoryFileSystem
javax.jdo.option.ConnectionUserName=APP
mapred.skip.map.max.skip.records=0
hive.merge.mapfiles=true
hive.merge.size.smallfiles.avgsize=16000000
hive.test.mode.samplefreq=32
hive.optimize.skewjoin=false
mapred.job.tracker.persist.jobstatus.dir=/jobtracker/jobsInfo
fs.s3.buffer.dir=${hadoop.tmp.dir}/s3
hive.map.aggr.hash.min.reduction=0.5
job.end.retry.attempts=0
fs.file.impl=org.apache.hadoop.fs.LocalFileSystem
mapred.local.dir.minspacestart=0
hive.exec.compress.output=false
mapred.output.compression.type=RECORD
hive.script.recordreader=org.apache.hadoop.hive.ql.exec.TextRecordReader
topology.script.number.args=100
io.mapfile.bloom.error.rate=0.005
hive.exec.parallel.thread.number=8
mapred.max.tracker.blacklists=4
mapred.task.profile.maps=0-2
mapred.userlog.retain.hours=24
datanucleus.storeManagerType=rdbms
mapred.job.tracker.persist.jobstatus.active=false
hive.script.operator.id.env.var=HIVE_SCRIPT_OPERATOR_ID
hadoop.security.authorization=false
local.cache.size=10737418240
mapred.min.split.size=0
mapred.map.tasks=2
mapred.child.java.opts=-Xmx200m
hive.skewjoin.mapjoin.min.split=33554432
hive.metastore.warehouse.dir=/user/hive/warehouse
mapred.job.queue.name=default
hive.mapjoin.bucket.cache.size=100
datanucleus.transactionIsolation=read-committed
ipc.server.listen.queue.size=128
mapred.inmem.merge.threshold=1000
job.end.retry.interval=30000
mapred.skip.attempts.to.start.skipping=2
fs.checkpoint.dir=${hadoop.tmp.dir}/dfs/namesecondary
mapred.reduce.tasks=-1
mapred.merge.recordsBeforeProgress=10000
mapred.userlog.limit.kb=0
hive.skewjoin.key=100000
javax.jdo.option.ConnectionDriverName=org.apache.derby.jdbc.EmbeddedDriver
webinterface.private.actions=false
mapred.job.shuffle.input.buffer.percent=0.70
io.sort.spill.percent=0.80
hive.udtf.auto.progress=false
hive.session.id=hexianghui_201002232043
mapred.map.tasks.speculative.execution=true
hadoop.util.hash.type=murmur
hive.exec.script.maxerrsize=100000
hive.optimize.groupby=true
mapred.map.max.attempts=4
hive.default.fileformat=TextFile
hive.exec.scratchdir=/tmp/hive-${user.name}
mapred.job.tracker.handler.count=10
hive.script.recordwriter=org.apache.hadoop.hive.ql.exec.TextRecordWriter
hive.join.emit.interval=1000
datanucleus.validateConstraints=false
mapred.tasktracker.expiry.interval=600000
mapred.jobtracker.maxtasks.per.job=-1
mapred.jobtracker.job.history.block.size=3145728
keep.failed.task.files=false
ipc.client.tcpnodelay=false
mapred.task.profile.reduces=0-2
mapred.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec
io.map.index.skip=0
ipc.server.tcpnodelay=false
hive.join.cache.size=25000
datanucleus.autoStartMechanismMode=checked
hive.input.format=org.apache.hadoop.hive.ql.io.HiveInputFormat
hadoop.logfile.size=10000000
mapred.reduce.tasks.speculative.execution=true
hive.skewjoin.mapjoin.map.tasks=10000
hive.hwi.listen.port=9999
fs.checkpoint.period=3600
mapred.job.reuse.jvm.num.tasks=1
mapred.jobtracker.completeuserjobs.maximum=100
hive.groupby.mapaggr.checkinterval=100000
fs.s3.maxRetries=4
javax.jdo.option.ConnectionURL=jdbc:derby:;databaseName=metastore_db;create=true
hive.mapred.mode=nonstrict
hive.groupby.skewindata=false
hive.exec.parallel=false
mapred.local.dir=${hadoop.tmp.dir}/mapred/local
fs.hftp.impl=org.apache.hadoop.hdfs.HftpFileSystem
fs.s3.sleepTimeSeconds=10
fs.trash.interval=0
mapred.submit.replication=10
hive.merge.size.per.task=256000000
fs.har.impl=org.apache.hadoop.fs.HarFileSystem
mapred.map.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec
hive.exec.reducers.max=999
mapred.tasktracker.dns.interface=default
mapred.job.tracker=192.168.0.4:9001
io.seqfile.sorter.recordlimit=1000000
hive.optimize.ppd=true
mapred.line.input.format.linespermap=1
mapred.jobtracker.taskScheduler=org.apache.hadoop.mapred.JobQueueTaskScheduler
mapred.tasktracker.instrumentation=org.apache.hadoop.mapred.TaskTrackerMetricsInst
hive.mapjoin.cache.numrows=25000
hive.merge.mapredfiles=false
hive.metastore.connect.retries=5
hive.fileformat.check=true
mapred.tasktracker.procfsbasedprocesstree.sleeptime-before-sigkill=5000
javax.jdo.option.DetachAllOnCommit=true
mapred.local.dir.minspacekill=0
hive.optimize.pruner=true
javax.jdo.option.ConnectionPassword=mine
hive.hwi.listen.host=0.0.0.0
io.sort.record.percent=0.05
hive.map.aggr.hash.percentmemory=0.5
fs.kfs.impl=org.apache.hadoop.fs.kfs.KosmosFileSystem
mapred.temp.dir=${hadoop.tmp.dir}/mapred/temp
mapred.tasktracker.reduce.tasks.maximum=2
javax.jdo.PersistenceManagerFactoryClass=org.datanucleus.jdo.JDOPersistenceManagerFactory
hive.mapred.local.mem=0
fs.checkpoint.edits.dir=${fs.checkpoint.dir}
mapred.job.reduce.input.buffer.percent=0.0
datanucleus.validateTables=false
mapred.tasktracker.indexcache.mb=10
hadoop.logfile.count=10
mapred.skip.reduce.auto.incr.proc.count=truehive.script.auto.progress=false
io.seqfile.compress.blocksize=1000000
fs.s3.block.size=67108864
mapred.tasktracker.taskmemorymanager.monitoring-interval=5000
datanucleus.autoCreateSchema=true
mapred.acls.enabled=false
mapred.queue.names=default
fs.hsftp.impl=org.apache.hadoop.hdfs.HsftpFileSystem
hive.map.aggr=true
hive.enforce.bucketing=false
mapred.task.tracker.http.address=0.0.0.0:50060
mapred.reduce.parallel.copies=5
io.seqfile.lazydecompress=true
hive.exec.script.allow.partial.consumption=false
io.sort.mb=100
ipc.client.connection.maxidletime=10000
mapred.task.tracker.report.address=127.0.0.1:0
mapred.compress.map.output=false
hive.mapred.reduce.tasks.speculative.execution=true
ipc.client.kill.max=10
ipc.client.connect.max.retries=10
hive.heartbeat.interval=1000
fs.s3.impl=org.apache.hadoop.fs.s3.S3FileSystem
hive.mapjoin.maxsize=100000
mapred.job.tracker.http.address=0.0.0.0:50030
io.file.buffer.size=4096
mapred.jobtracker.restart.recover=false
io.serializations=org.apache.hadoop.io.serializer.WritableSerialization
hive.optimize.cp=true
javax.jdo.option.NonTransactionalRead=true
hive.exec.reducers.bytes.per.reducer=1000000000
mapred.reduce.copy.backoff=300
mapred.task.profile=false
jobclient.output.filter=FAILED
mapred.tasktracker.map.tasks.maximum=2
io.compression.codecs=org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.BZip2Codec
fs.checkpoint.size=67108864

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/197552.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

『亚马逊云科技产品测评』活动征文|基于亚马逊EC2云服务器安装Prometheus数据可视化监控

授权声明:本篇文章授权活动官方亚马逊云科技文章转发、改写权,包括不限于在 Developer Centre, 知乎,自媒体平台,第三方开发者媒体等亚马逊云科技官方渠道 亚马逊EC2云服务器(Elastic Compute Cloud)是亚马…

二、设置三台虚拟机的内存、MAC地址、IP地址

目录 1、配置内存 2、配置MAC地址 2.1 配置node2的MAC地址

【Spark 基础】-- 序列化和反序列化

一、前言 关于序列化和反序列化的定义,在这篇文章中有详细介绍,此处简要说明: 序列化:将对象写入到 IO 流中 反序列化:从 IO 流中恢复对象 我们也可以借助下图来理解序列化和反序列化的过程。 二、Spark 的序列化器 Spark 提供了 2 个序列化库 (Java serializati…

Notepad++ 安装TextFx插件失败

据说TextFx插件是Notepad常用插件之一;有很多格式化代码的功能;下面安装一下; 插件管理里面看一下,没有这个TextFx; 根据资料,先安装NppExec; 然后下一个5.9老版本的Notepad,如下图…

二叉树(判断是否为平衡二叉树)

题目(力扣): 观察题目,发现最重要的条件就是,两颗子树的高度差的绝对值不超过1,我们就可以用递归将所有左子树和右子树都遍历一个,求出他们的高度差,若差值 > 1,则返回…

分布式搜索引擎elasticsearch(一)

5.1 初始elasticsearch elasticsearch是一款非常强大的开源搜索引擎,可以帮助我们从海量数据中快速找到需要的内容。 elasticsearch是elastic stack的核心,负责存储、搜索、分析数据。 5.1.1正向索引 5.1.2elasticsearch采用倒排索引: 文档(document):每条数据就是一个…

Word 在页眉或页脚中设置背景颜色

目录预览 一、问题描述二、解决方案三、参考链接 一、问题描述 如何在word的页眉页脚中设置背景色? 二、解决方案 打开 Word 文档并进入页眉或页脚视图。在 Word 2016 及更高版本中,你可以通过在“插入”选项卡中单击“页眉”或“页脚”按钮来进入或者…

883重要知识点

(1)程序结构分三种:顺序结构,选择结构,循环结构。 (2)该程序都要从main()开始,然后从最上面往下。 (3)计算机的数据在电脑中保存以二…

SASE:网络与安全的未来之路

随着数字化时代的到来,企业和个人对网络连接和安全性的需求日益增长。传统的网络架构已经无法满足这些需求,因此,新兴的网络和安全框架SASE(Secure Access Service Edge)应运而生。本文将介绍什么是SASE,并…

layui+ssm实现数据批量删除

layuissm实现数据的批量删除 //数据表格table.render({id: adminList,elem: #adminList,url: ctx "/admin/getAdminList", //数据接口cellMinWidth: 80,even: true,toolbar: #toolbarDemo,//头部工具栏limit: 10,//每页条数limits: [10, 20, 30, 40],defaultToolba…

1. 了解继承的概念,掌握派生类的定义。2. 掌握派生类构造方法的执行过程。3. 掌握方法的重载与覆盖。4. 掌握抽象类的概念及上转型对象的使用

1、定义一个抽象类Shape,类中封装属性name指定图形名称,定义用于求面积的抽象方法。定义3个子类:圆形类Circle、梯形类Trapezoid和三角形类Triangle,都继承Shape类,子类中各自新增属性,定义构造方法、设置属…

无人机语音中继电台 U-ATC118

简介 甚高频无线电中继通讯系统使用经过适航认证的机载电台连接数字网络传输模块,通过网络远程控制无缝实现无人机操作员与塔台直接语音通话。无人机操作员可以从地面控制站远程操作机载电台进行频率切换、静噪开关、PTT按钮,电台虚拟面板与真实面板布局…

重塑生成式AI时代数据战略,亚马逊云科技re:Invent大会Swami主题演讲

re:lnvent 2023 Swami Sivasubramanian主题演讲,数据、AI和人类共进共生,重塑生成式AI时代的数据战略。 赋能人才加持生成式AI必备能 生成式AI创新中心:解决生成式AI工程化挑战。 Amazon Bedrock平台PartyRock:生成式AI应用程序实…

【Filament】Filament环境搭建

1 前言 Filament 是一个实时物理渲染引擎,用于 Android、iOS、Linux、macOS、Windows 和 WebGL 平台。该引擎旨在提供高效、实时的图形渲染,并被设计为在 Android 平台上尽可能小而尽可能高效。Filament 支持基于物理的渲染(PBR)&…

拼多多电商平台API接口,获取拼多多实时准确数据,获取产品销量、价格,sku图片及sku库存数据演示

拼多多商品详情API接口的作用是让开发者可以获取拼多多平台上特定商品的详细信息,包括商品的标题、价格、图片、规格、参数以及店铺信息等。通过这个接口,开发者可以轻松地获取商品的原始数据,便于进行数据分析、价格比较、爬取等操作。这为电…

大数据之HBase(二)

Master详细架构 位置:namenode实现类:HMaster组成 负载均衡器:通过meta了解region的分配,通过zk了解rs的启动情况,5分钟调控一次分配平衡元数据表管理器:管理自己的预写日志,如果宕机&#xff…

JavaWeb(六)

一、Maven的常用命令 maven的常用命令有:compile(编译)、clean(清理)、test(测试)、package(打包)、install(安装)。 1.1、compile(编译) compile(编译)的作用有如下两点: 1、从阿里云下载编译需要的jar包,在本地仓库也能看到下载好的插件(远程仓库配置的是阿里…

【数值计算方法(黄明游)】函数插值与曲线拟合(二):Newton插值【理论到程序】

​ 文章目录 一、近似表达方式1. 插值(Interpolation)2. 拟合(Fitting)3. 投影(Projection) 二、Lagrange插值1. 拉格朗日插值方法2. Lagrange插值公式a. 线性插值(n1)b. 抛物插值&…

JavaWeb 前端工程化

前端工程化是使用软件工程的方法来单独解决前端的开发流程中模块化、组件化、规范化、自动化的问题,其主要目的为了提高效率和降低成本。 前端工程化实现技术栈 前端工程化实现的技术栈有很多,我们采用ES6nodejsnpmViteVUE3routerpiniaaxiosElement-plus组合来实现 ECMAScri…

glibc下的tpmalloc

文章目录 1、内存布局2、操作系统内存分配的相关函数2.1 Heap 操作相关函数2.2 Mmap 映射区域操作相关函数 3、ptmalloc的实现原理3.1 Main_arena 与 non_main_arena3.2 chunk 结构3.3 空闲 chunk 容器的组织形式3.3.1 small bin3.3.2 Large bins3.3.3 Unsorted bin3.3.4 Fast …