hadoop执行sqoop任务找不到jar

sqoop:1.4.7
hadoop:3.4.1
数据:oracel-hdfs

2025-04-15 16:57:00,850 INFO sqoop.Sqoop: Running Sqoop version: 1.4.7
2025-04-15 16:57:00,901 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.
2025-04-15 16:57:00,965 INFO oracle.OraOopManagerFactory: Data Connector for Oracle and Hadoop is disabled.
2025-04-15 16:57:00,975 INFO manager.SqlManager: Using default fetchSize of 1000
2025-04-15 16:57:00,975 INFO tool.CodeGenTool: Beginning code generation
2025-04-15 16:57:01,920 INFO manager.OracleManager: Time zone has been set to GMT
2025-04-15 16:57:01,953 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM HYSH_CX.NCME_CREDIT_TYPE t WHERE 1=0
2025-04-15 16:57:01,984 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /opt/datasophon/hdfs
Note: /tmp/sqoop-hdfs/compile/74c258101e7c0e44855b37b09735db0e/HYSH_CX_NCME_CREDIT_TYPE.java uses or overrides a deprecated API.
Note: Recompile with -Xlint:deprecation for details.
2025-04-15 16:57:03,093 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-hdfs/compile/74c258101e7c0e44855b37b09735db0e/HYSH_CX.NCME_CREDIT_TYPE.jar
2025-04-15 16:57:03,791 INFO tool.ImportTool: Destination directory /user/hdfs/NCME_CREDIT_TYPE deleted.
2025-04-15 16:57:03,823 INFO manager.OracleManager: Time zone has been set to GMT
2025-04-15 16:57:03,831 INFO mapreduce.ImportJobBase: Beginning import of HYSH_CX.NCME_CREDIT_TYPE
2025-04-15 16:57:03,832 INFO Configuration.deprecation: mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address
2025-04-15 16:57:03,836 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar
2025-04-15 16:57:03,843 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
2025-04-15 16:57:03,911 INFO impl.MetricsConfig: Loaded properties from hadoop-metrics2.properties
2025-04-15 16:57:03,921 INFO impl.MetricsSystemImpl: Scheduled Metric snapshot period at 10 second(s).
2025-04-15 16:57:03,921 INFO impl.MetricsSystemImpl: JobTracker metrics system started
2025-04-15 16:57:04,087 INFO db.DBInputFormat: Using read commited transaction isolation
2025-04-15 16:57:04,096 INFO mapreduce.JobSubmitter: number of splits:1
2025-04-15 16:57:04,188 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_local2073730221_0001
2025-04-15 16:57:04,188 INFO mapreduce.JobSubmitter: Executing with tokens: []
2025-04-15 16:57:04,325 INFO mapred.LocalDistributedCacheManager: Creating symlink: /data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars <- /opt/datasophon/hadoop-3.4.1/libjars/*
2025-04-15 16:57:04,327 WARN fs.FileUtil: Command 'ln -s /data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars /opt/datasophon/hadoop-3.4.1/libjars/*' failed 1 with: ln: failed to create symbolic link ‘/opt/datasophon/hadoop-3.4.1/libjars/*’: No such file or directory2025-04-15 16:57:04,327 WARN mapred.LocalDistributedCacheManager: Failed to create symlink: /data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars <- /opt/datasophon/hadoop-3.4.1/libjars/*
2025-04-15 16:57:04,327 INFO mapred.LocalDistributedCacheManager: Localized file:/tmp/hadoop/mapred/staging/hdfs2073730221/.staging/job_local2073730221_0001/libjars as file:/data/tmp/hadoop/mapred/local/job_local2073730221_0001_612a3a92-6e9b-4750-8da1-17ffe2e06983/libjars
2025-04-15 16:57:04,366 INFO mapreduce.Job: The url to track the job: http://localhost:8080/
2025-04-15 16:57:04,366 INFO mapreduce.Job: Running job: job_local2073730221_0001
2025-04-15 16:57:04,367 INFO mapred.LocalJobRunner: OutputCommitter set in config null
2025-04-15 16:57:04,371 INFO output.PathOutputCommitterFactory: No output committer factory defined, defaulting to FileOutputCommitterFactory
2025-04-15 16:57:04,372 INFO output.FileOutputCommitter: File Output Committer Algorithm version is 2
2025-04-15 16:57:04,372 INFO output.FileOutputCommitter: FileOutputCommitter skip cleanup _temporary folders under output directory:false, ignore cleanup failures: false
2025-04-15 16:57:04,373 INFO mapred.LocalJobRunner: OutputCommitter is org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
2025-04-15 16:57:04,406 INFO mapred.LocalJobRunner: Waiting for map tasks
2025-04-15 16:57:04,406 INFO mapred.LocalJobRunner: Starting task: attempt_local2073730221_0001_m_000000_0
2025-04-15 16:57:04,422 INFO output.PathOutputCommitterFactory: No output committer factory defined, defaulting to FileOutputCommitterFactory
2025-04-15 16:57:04,422 INFO output.FileOutputCommitter: File Output Committer Algorithm version is 2
2025-04-15 16:57:04,422 INFO output.FileOutputCommitter: FileOutputCommitter skip cleanup _temporary folders under output directory:false, ignore cleanup failures: false
2025-04-15 16:57:04,433 INFO mapred.Task:  Using ResourceCalculatorProcessTree : [ ]
2025-04-15 16:57:04,517 INFO db.DBInputFormat: Using read commited transaction isolation
2025-04-15 16:57:04,519 INFO mapred.MapTask: Processing split: 1=1 AND 1=1
2025-04-15 16:57:04,523 INFO mapred.LocalJobRunner: map task executor complete.
2025-04-15 16:57:04,528 WARN mapred.LocalJobRunner: job_local2073730221_0001
java.lang.Exception: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class HYSH_CX_NCME_CREDIT_TYPE not foundat org.apache.hadoop.mapred.LocalJobRunner$Job.runTasks(LocalJobRunner.java:492)at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:552)
Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class HYSH_CX_NCME_CREDIT_TYPE not foundat org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2737)at org.apache.sqoop.mapreduce.db.DBConfiguration.getInputClass(DBConfiguration.java:403)at org.apache.sqoop.mapreduce.db.OracleDataDrivenDBInputFormat.createDBRecordReader(OracleDataDrivenDBInputFormat.java:66)at org.apache.sqoop.mapreduce.db.DBInputFormat.createRecordReader(DBInputFormat.java:266)at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.<init>(MapTask.java:528)at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:771)at org.apache.hadoop.mapred.MapTask.run(MapTask.java:348)at org.apache.hadoop.mapred.LocalJobRunner$Job$MapTaskRunnable.run(LocalJobRunner.java:271)at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)at java.util.concurrent.FutureTask.run(FutureTask.java:266)at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)at java.lang.Thread.run(Thread.java:750)
Caused by: java.lang.ClassNotFoundException: Class HYSH_CX_NCME_CREDIT_TYPE not foundat org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2641)at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2735)... 12 more
2025-04-15 16:57:05,369 INFO mapreduce.Job: Job job_local2073730221_0001 running in uber mode : false
2025-04-15 16:57:05,370 INFO mapreduce.Job:  map 0% reduce 0%
2025-04-15 16:57:05,371 INFO mapreduce.Job: Job job_local2073730221_0001 failed with state FAILED due to: NA
2025-04-15 16:57:05,376 INFO mapreduce.Job: Counters: 0
2025-04-15 16:57:05,379 WARN mapreduce.Counters: Group FileSystemCounters is deprecated. Use org.apache.hadoop.mapreduce.FileSystemCounter instead
2025-04-15 16:57:05,380 INFO mapreduce.ImportJobBase: Transferred 0 bytes in 1.5304 seconds (0 bytes/sec)
2025-04-15 16:57:05,380 WARN mapreduce.Counters: Group org.apache.hadoop.mapred.Task$Counter is deprecated. Use org.apache.hadoop.mapreduce.TaskCounter instead
2025-04-15 16:57:05,380 INFO mapreduce.ImportJobBase: Retrieved 0 records.
2025-04-15 16:57:05,380 ERROR tool.ImportTool: Import failed: Import job failed!

修改方式

修改一下这个mapred-site.xml,然后重启

<property><name>mapreduce.framework.name</name><value>yarn</value></property>

不行看这里

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/901564.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

空地机器人在复杂动态环境下,如何高效自主导航?

随着空陆两栖机器人(AGR)在应急救援和城市巡检等领域的应用范围不断扩大&#xff0c;其在复杂动态环境中实现自主导航的挑战也日益凸显。对此香港大学王俊铭基于阿木实验室P600无人机平台自主搭建了一整套空地两栖机器人&#xff0c;使用Prometheus开源框架完成算法的仿真验证与…

MCP调用示例-GitHub仓库操作

在上一篇文章MCP核心概念和应用 ———AI 大模型的标准化工具箱里&#xff0c;我们讲述了MCP的安装&#xff0c;现在让我们试一试通过示例了解它的功能吧&#xff01; 首先确保你已经有了相应的APIKEY。 &#x1f4a1;大模型中转API推荐 ✨中转使用教程 1、点击界面上的 「Done…

zk源码—5.请求的处理过程一

大纲 1.服务器的请求处理链 (1)Leader服务器的请求处理链 一.PrepRequestProcessor请求预处理器 二.ProposalRequestProcessor事务投票处理器 三.SyncRequestProcessor事务日志处理器 四.AckRequestProcessor投票反馈处理器 五.CommitProcessor事务提交处理器 六.ToBeA…

小程序获取用户总结(全)

获取方式 目前小程序获取用户一共有3中(自己接触到的),但由于这个API一直在改,所以不确定后期是否有变动,还是要多关注官方公告。 方式一 使用wx.getUserInfo 实例: wxml 文件<button open-type="getUserInfo" bindgetuserinfo="onGetUserInfo&quo…

[LeetCode 1871] 跳跃游戏 7(Ⅶ)

题面&#xff1a; 数据范围&#xff1a; 2 ≤ s . l e n g t h ≤ 1 0 5 2 \le s.length \le 10^5 2≤s.length≤105 s [ i ] s[i] s[i] 要么是 ′ 0 ′ 0 ′0′ &#xff0c;要么是 ′ 1 ′ 1 ′1′ s [ 0 ] 0 s[0] 0 s[0]0 1 ≤ m i n J u m p ≤ m a x J u m p <…

【Linux】基础 IO(文件描述符、重定向、缓冲区)

Linux 1.理解文件2.C文件接口1.打开 写文件2.读文件 简单实现cat命令3.输出信息到显示器的方式4.stdin、stdout、stderr5.打开文件的方式 3.系统接口 IO1.传递标志位2.open、close3.write、read 4.文件描述符1.是什么&#xff1f;2.分配规则3.重定向原理4.通过dup2系统调用重…

Apache Doris SelectDB 技术能力全面解析

Apache Doris 是一款开源的 MPP 数据库&#xff0c;以其优异的分析性能著称&#xff0c;被各行各业广泛应用在实时数据分析、湖仓融合分析、日志与可观测性分析、湖仓构建等场景。Apache Doris 目前被 5000 多家中大型的企业深度应用在生产系统中&#xff0c;包含互联网、金融、…

交换机与路由器的默契配合:它们的联系与区别

交换机与路由器的默契配合&#xff1a;它们的联系与区别 一. 交换机与路由器的基本功能1.1 交换机的功能1.2 路由器的功能 二. 交换机和路由器的区别三. 交换机和路由器的联系3.1 数据转发的协作3.2 网络分段与分隔3.3 协同工作提供互联网接入 四. 交换机和路由器的联合应用场景…

【计算机系统结构】MIPSsim

目录 双击MIPSsim.exe 问题1&#xff1a;Microsoft Defender SmartScreen阻止了无法是被的应用启动&#xff0c;运行此应用可能会导致你的电脑存在风险 解决 出现下面的问题的话&#xff0c;建议直接在官网下载 问题2&#xff1a;.NET Framework 3.5安装错误代码0x80240438 …

map 中key 是否可以放置的自定义的对象?

在 Java 中,可以将自定义对象作为 Map 的 Key,但必须满足以下条件: 1. 必须正确重写 hashCode() 和 equals() 方法 原因:Map(如 HashMap)依赖这两个方法确定键的唯一性和存储位置。未正确重写的风险: 无法正确查找值:即使两个对象逻辑上相等,若 hashCode 不同,会被视…

【笔记ing】AI大模型-04逻辑回归模型

一个神经网络结构&#xff0c;其中的一个神经网络层&#xff0c;本质就是一个逻辑回归模型 深度神经网络的本质就是多层逻辑回归模型互相连接或采用一定的特殊连接的方式连接在一起构成的。其中每一个层本质就是一个逻辑回归模型。 逻辑回归模型基本原理 逻辑回归&#xff0…

Android学习总结之算法篇七(图和矩阵)

有向图的深度优先搜索&#xff08;DFS&#xff09;和广度优先搜索&#xff08;BFS&#xff09;的示例&#xff0c;以此来模拟遍历 GC Root 引用链这种有向图结构&#xff1a; 一、深度优先搜索&#xff08;DFS&#xff09; import java.util.*;public class GraphDFS {privat…

熟悉Linux下的编程

可能 目录 熟悉Linux下Python编程的含义及与非Linux环境编程的区别 一、核心含义解析 二、与非Linux环境的关键区别 三、典型应用场景对比 四、能力培养建议 openfoem的下载之路&#xff1a; 方法一&#xff1a;使用cd命令 方法二&#xff1a;使用快捷方式 方法三&am…

c++引入nacos,详细步骤

以下是将Nacos引入C项目的详细步骤&#xff0c;包括安装、配置和代码实现&#xff1a; 1. 安装Nacos服务器 下载Nacos服务器安装包&#xff0c;可以从Nacos官网获取最新版本。 解压安装包并启动Nacos服务器&#xff1a; cd nacos/bin sh startup.sh -m standalone 这将启动…

性能优化实践

4.1 大规模量子态处理的性能优化 背景与问题分析 量子计算中的大规模量子态处理(如量子模拟、量子态可视化)需要高效计算和实时渲染能力。传统图形API(如WebGL)在处理高维度量子态时可能面临性能瓶颈,甚至崩溃(如表格中14量子比特时WebGL的崩溃)。而现代API(如WebGPU…

课堂总结。

第三章第六节 Spark-SQL核心编程&#xff08;五&#xff09;自定义函数&#xff1a;UDF&#xff1a;val sparkConf new SparkConf().setMaster("local[*]").setAppName("SQLDemo")//创建SparkSession对象val spark :SparkSession SparkSession.builder()…

分库分表-除了hash分片还有别的吗?

在分库分表的设计中,除了常见的 Hash 分片,还有多种策略根据业务场景灵活选择。以下是几种主流的分库分表策略及其应用场景、技术实现和优缺点分析,结合项目经验(如标易行投标服务平台的高并发场景)进行说明: 一、常见分库分表策略 1. 范围分片(Range Sharding) 原理:…

AUTOSAR图解==>AUTOSAR_SWS_GPTDriver

AUTOSAR GPT驱动 (通用定时器驱动) 分析 AUTOSAR标准软件规范解析 目录 1. GPT驱动概述 1.1 GPT驱动在AUTOSAR架构中的位置1.2 GPT驱动主要功能 2. GPT驱动模块结构3. GPT驱动初始化流程4. GPT驱动状态机5. GPT驱动错误处理6. GPT预定义定时器7. 总结 1. GPT驱动概述 GPT驱动…

MyBatis持久层框架

MyBatis持久层框架 目录 一、Mybatis简介 1. 简介 2. 持久层框架对比 3. 快速入门&#xff08;基于Mybatis3方式&#xff09; 二、日志框架扩展 1. 用日志打印替代sout 2. Java日志体系演变 3. 最佳拍档用法 4. Lombok插件的使用 4.1 Lombok简介 4.2 Lombok安装 4.3 …

域控制器升级的先决条件验证失败,证书服务器已安装

出现“证书服务器已安装”导致域控制器升级失败时&#xff0c;核心解决方法是卸载已安装的证书服务‌。具体操作如下&#xff1a;‌ ‌卸载证书服务‌ 以管理员身份打开PowerShell&#xff0c;执行命令&#xff1a; Remove-WindowsFeature -Name AD-Certificate该命令会移除A…