HUE 打开 WorkFlow异常 Operation category READ is not supported in state standby

异常:在hue上配置的一些定时任务突然停止执行。

1.打开页面HUE->WorkFlow 发现页面异常,无法进入WorkFlow,如下图

 

2.查看HUE日志

查看到WebHdfsException异常,访问HDFS文件浏览器报错,

 

[26/Jun/2019 09:29:55 +0800] exception    ERROR    Internal Server Error: /oozie/editor/workflow/new/
Traceback (most recent call last):File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/build/env/lib/python2.7/site-packages/Django-1.11-py2.7.egg/django/core/handlers/exception.py", line 41, in innerresponse = get_response(request)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/build/env/lib/python2.7/site-packages/Django-1.11-py2.7.egg/django/core/handlers/base.py", line 249, in _legacy_get_responseresponse = self._get_response(request)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/build/env/lib/python2.7/site-packages/Django-1.11-py2.7.egg/django/core/handlers/base.py", line 187, in _get_responseresponse = self.process_exception_by_middleware(e, request)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/build/env/lib/python2.7/site-packages/Django-1.11-py2.7.egg/django/core/handlers/base.py", line 185, in _get_responseresponse = wrapped_callback(request, *callback_args, **callback_kwargs)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/build/env/lib/python2.7/site-packages/Django-1.11-py2.7.egg/django/utils/decorators.py", line 185, in innerreturn func(*args, **kwargs)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/apps/oozie/src/oozie/decorators.py", line 113, in decoratereturn view_func(request, *args, **kwargs)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/apps/oozie/src/oozie/views/editor2.py", line 130, in new_workflowworkflow.check_workspace(request.fs, request.user)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/apps/oozie/src/oozie/models2.py", line 94, in check_workspacecreate_directories(fs, [REMOTE_SAMPLE_DIR.get()])File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/desktop/libs/liboozie/src/liboozie/submission2.py", line 520, in create_directoriesif not fs.do_as_user(fs.DEFAULT_USER, fs.exists, directory):File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/desktop/core/src/desktop/lib/fs/proxyfs.py", line 102, in do_as_userreturn fn(*args, **kwargs)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/desktop/core/src/desktop/lib/fs/proxyfs.py", line 136, in existsreturn self._get_fs(path).exists(path)File "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/desktop/libs/hadoop/src/hadoop/fs/webhdfs.py", line 297, in existsreturn self._stats(path) is not NoneFile "/opt/cloudera/parcels/CDH-6.0.0-1.cdh6.0.0.p0.537114/lib/hue/desktop/libs/hadoop/src/hadoop/fs/webhdfs.py", line 285, in _statsraise ex
WebHdfsException: 403 Client Error: Forbidden for url: http://host009:9870/webhdfs/v1/user/hue/oozie/deployments/_%24USER_-oozie-%24JOBID-%24TIME?op=GETFILESTATUS&user.name=hue&doas=hue
{"RemoteException":{"exception":"StandbyException","javaClassName":"org.apache.hadoop.ipc.StandbyException","message":"Operation category READ is not supported in state standby. Visit https://s.apache.org/sbnn-error"}} (error 403)
[26/Jun/2019 09:29:55 +0800] access       ERROR    10.248.111.1 sss - "POST /desktop/log_js_error HTTP/1.1"-- JS ERROR: {"msg":"TypeError: _super is undefined","url":"http://10.248.111.111:8888/static/desktop/js/popover-extra-placements.b89dd43e6070.js","line":14,"column":3,"stack":"@http://10.248.111.111:8888/static/desktop/js/popover-extra-placements.b89dd43e6070.js:14:3\n@http://10.248.111.111:8888/static/desktop/js/popover-extra-placements.b89dd43e6070.js:113:3\n"}

发现到WebHdfsException异常,访问HDFS文件浏览器报错,异常中 host009:9870 就是我备用NameNode的 Web UI端口

3.异常解决方案1:

        我有两个NameNode,可能是之前一个NameNode异常了,HUE切换到另外一个NameNode进行访问,但是拒绝访问,重启NameNode后再次访问HUE->WorkFlow恢复正常。

 

 

3.异常解决方案2:

在HUE中修改连接的NameNode,选择现在活动的那个Namenode

 

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/510011.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Hbase Native memory allocation (mmap) failed to map xxx bytes for committing reserved memory

新启动测试环境Hbase报错,报错日志如下 # # There is insufficient memory for the Java Runtime Environment to continue. # Native memory allocation (mmap) failed to map 31715688448 bytes for committing reserved memory. # An error report file with mo…

CDH Yarn资源动态分配 - 指定资源限制 公平调度具体设置

日常工作中会涉及到各种资源分配等问题,跨部门,跨业务等等,这里介绍基于CDH版本的Yarn 公平调度(实际使用DRF调度) 不同时间配置不同资源参考(计划模式):https://datamining.blog.cs…

CDH 配置YARN动态资源池的计划模式,根据时间划分资源,不同时间不同队列使用不同资源

公平调度配置可参考:http://datamining.blog.csdn.net/article/details/94554469 目录 计划模式设置 队列资源抢占分配 计划模式设置 1.创建计划规则 2.设置白天配置,可以根据业务选择具体配置计划,调整资源,选择每天&#xff…

java集合类总结

Collection:单列集合类的跟接口,用于存储一系列符合某种规则的元素,它有两个重要的子接口,分别时List和Set还有Queue。其中List的特点时元素有序,元素可重复,Set的特点时元素无序且不可重复,Que…

TCP为什么是四次挥手

TCP 3次握手 客户端向服务器发送一个SYN(包含了SYN,SEQ)。 当服务器接收到客户端发过来的SYN时,会向客户端发送一个SYNACK的数据包,其实ACK的ack等于上一次发送SYN数据包的(SYNSEQ)。 当客户…

TCP的三次握手和四次挥手详解

为什么需要“三次握手” 在谢希仁著《计算机网络》第四版中讲“三次握手”的目的是“为了防止已失效的连接请求报文段突然又传送到了服务端,因而产生错误”。在另一部经典的《计算机网络》一书中讲“三次握手”的目的是为了解决“网络中存在延迟的重复分组”的问题。…

zabbix server is not running the information displayed may not be current

页面报错如下 查看日志提示 30037:20190710:193016.878 cannot start alert manager service: Cannot bind socket to "/var/run/zabbix/zabbix_server_alerter.sock": [13] Permission denied.30039:20190710:193016.879 server #30 started [preprocessing manage…

VS2010项目配置详解

首先看一下项目设置中可以使用的宏(环境变量),常用的有: ConfigurationName 配置名字,通常是Debug或者Release IntDir 编译器使用的中间目录,产出obj文件 OutDir 链接器使用的输出目录 ProjectDir 项目目录…

Centos7 下 zabbix服务安装与部署,linux监控服务

客户端安装参考:https://mp.csdn.net/postedit/95475740 安装Zabbix 关闭 SeLinux 临时关闭 setenforce 0 永久关闭 vi /etc/selinux/config 关闭防火墙 临时关闭 systemctl stop firewalld.service 永久关闭 systemctl disable firewalld.service安装基础环…

Zabbix 安装agent

服务端安装参考:https://datamining.blog.csdn.net/article/details/95362947 安装前首先添加对应的yum repository rpm -ivh http://repo.zabbix.com/zabbix/3.4/rhel/7/x86_64/zabbix-release-3.4-2.el7.noarch.rpm yum install -y zabbix-agent 修改配置文件 …

Bootstrap 导入js文件,浏览器找不到文件问题

html导入文件是用href属性来导入,js利用src属性导入,都可以用相对路径来导入文件,只要确保相对路径正确不会找不到。 绝对路径:是从盘符开始的路径,形如C:\windo绝对路径:是从盘符开始的路径,形…

windows 安装 zabbix agent 客户端

下载window客户端 https://assets.zabbix.com/downloads/3.4.0/zabbix_agents_3.4.0.win.zip 在C盘建立目录 C:/zabbix ,并解压下载文件 修改配置参数 LogFilec:\zabbix\zabbix.log Server服务端ip ServerActive服务端ip Hostnameinstance-2c7t7v(右…

Spark-shell 脚本批量执行命令,命令行批量执行命令

spark-shell 执行脚本&#xff0c;批量执行命令 #!/bin/bashsource /etc/profileexec spark-shell --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 1 --conf spark.cleaner.ttl240000 <<!EOF var startTime System.currentTimeM…

TCP滑动窗口机制

TCP通过滑动窗口机制检测丢包&#xff0c;并在丢包发生时调整数据传输速率。滑动窗口机制利用数据接收端的接收窗口来控制数据流。 接收窗口值由数据接收端指定&#xff0c;以字节数形式存储于TCP报文头&#xff0c;并告知传输设备有多少数据将会存储在TCP缓冲区。缓冲区就是数…

CDH中文文档下载,Cloudera中文手册,CM中文文档

CDH中文文档下载 链接&#xff1a;https://pan.baidu.com/s/1G-8WCafpPZ3p7ZDeXLcgug 提取码&#xff1a;ubxz

运行第一个node.js文件

安装node.js 链接:https://nodejs.org/en/ 选择downloads 再选择对应的版本&#xff0c;Windows Installer (.msi)&#xff1a;表示需要安装后才能运行node.js文件,安装完后在(cmd)控制台输入node -v查看版本&#xff0c;不用配置环境安装完成后自动配置。Windows Binary (.zip…

phoenix-sqlline 连接失败

报错如下 [rootxxx bin]# phoenix-sqlline.py xxx.xxx.xxx:2181:/hbase Traceback (most recent call last):File "/opt/cloudera/parcels/APACHE_PHOENIX-4.14.0-cdh5.13.2.p0.3/bin/../lib/phoenix/bin/sqlline.py", line 25, in <module>import phoenix_ut…

几个重要库函数的实现

面试官很喜欢让求职者写一些常用库函数的实现&#xff0c;有很多是和字符串相关的&#xff0c;有一些是关于内存拷贝的。一般&#xff0c;常会让写的函数有以下几个&#xff1a; strcpy &#xff0c; strncpy&#xff0c; memcpy。 memset一般不会让去写&#xff0c;但这个函数…

CDH 5.13.0 集成 Phoenix

1.下载Phoenix http://phoenix.apache.org/download.html 找到对应版本 点击parcels (cdh可安装版本) http://www.apache.org/dist/phoenix/apache-phoenix-4.14.0-cdh5.13.2/parcels/ 下载好这三个文件 -rw-r--r-- 1 root root 364830720 7月 26 16:15 APACHE_PHOENIX-…

Phoenix 关联hbase表历史数据

Phoenix 基本使用 进入Phoenix phoenix-sqlline.py 10.248.161.18:2181:/hbase 或者进入目录下执行 cd /opt/cloudera/parcels/APACHE_PHOENIX/bin 关联Hbase原有表 创建Hbase表&#xff0c;列簇为 cf1 , cf2 create phoenix_hbase_test,cf1,cf2 插入测试数据 put phoenix…