hbase 导入mysql_HBase导入SQL Server数据库数据

在先前的几篇随笔中已经介绍了Hadoop、Zookeeper、Hbase的分布式框架搭建方案,目前已经搭建完成了一个包含11个节点的分布式集群。而对于HBase数据库的使用仅限于测试性质的增删改查指令,为了进一步熟悉分布式框架的使用,本文介绍将已有的数据从关系型数据库SQL Server中导入到HBase中的方法。

要完成从关系型数据库到HBase数据的迁移,我们需要使用Sqoop工具,Sqoop是Apache的一个独立项目,设计目的即是在Hadoop(Hive)和传统数据库(MySQL、postgresql)之间进行数据的传递。Sqoop工具基于数据仓库工具Hive,通过Hive来将数据查询转换成MapReduce任务实现数据的传递。因此,要完成本次数据的迁移,我们需要以下几个准备:

④Connector between SQL Server and Sqoop:sqoop-sqlserver-1.0.tar.gz

======================以下所有操作均在Master主机上并且以root用户执行======================

1、安装Hive

①建立hive目录

cd /home

mkdir hive

②解压安装包(安装包移至/home/hive下)

tar -zxvf apache-hive-2.1.1-bin.tar.gz

③设置环境变量

vi /etc/profile

追加以下:

export HIVE_HOME=/home/hive/apche-hive-2.1.1-bin

export PATH=$HIVE_HOME/bin:$PATH

export PATH

追加以下:

export HCAT_HOME=$HIVE_HOME/hcatalog

④使配置生效

source /etc/profile

2、安装sqoop

①建立sqoop目录

cd /home

mkdir sqoop

②解压安装包(安装包移至/home/sqoop下)

tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz

③设置环境变量

vi /etc/profile

追加以下:

export SQOOP_HOME=/home/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha

export SQOOP_CONF_DIR=$SQOOP_HOME/conf

export PATH=$SQOOP_HOME/bin:$PATH

export PATH

④使配置生效

source /etc/profile

3、配置JDBC

①解压(位置随意)

tar -zxvf sqljdbc_3.0.1301.101_enu.atr.gz

②复制jdbc到sqoop下

cp sqljdbc_3.0/enu/sqljdbc4.jar /home/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib

4、配置SQL Server sqoop Connector

①解压(位置随意,这里是/home)

tar -zxvf sqoop-sqlserver-1.0.tar.gz

②设置环境变量

vi /etc/profile

追加以下:

export MSSQL_CONNECTOR_HOME=/home/sqoop-sqlserver-1.0/

配置生效:

source /etc/profile

③配置到sqoop

cd sqoop-sqlserver-1.0

./install.sh

5、 配置sqoop

存在这部分工作的原因是sqoop的默认配置会有一些我们不需要用到的东西,在其配置文件$SQOOP_HOME/bin/configure-sqoop文件中,定义了许多需要预先配置的参数与环境,有些我们已经配置完成,但是另外有些是不需要用到的(目前还没意识到有什么作用),因此,为了防止运行时检查配置不通过,我们直接的处理办法就是取消这部分的配置检查。

注释ACCUMULO相关配置:在configure-sqoop文件中,注释掉与ACCUMULO_HOME相关的所有命令行,并保存退出。

6、目前的环境变量

值得注意的是,之前并没有加入HBase的环境变量,在这里是需要把HBase相关的环境变量加入的。

#/etc/profile

#System wide environment and startup programs, for login setup#Functions and aliases go in /etc/bashrc

#It's NOT a good idea to change this file unless you know what you#are doing. It's much better to create a custom.sh shell script in#/etc/profile.d/ to make custom changes to your environment, as this#will prevent the need for merging in future updates.

pathmunge () {

case":${PATH}:" in

*:"$1":*)

;;*)if [ "$2" = "after"] ; then

PATH=$PATH:$1

elsePATH=$1:$PATHfi

esac

}if [ -x /usr/bin/id ]; thenif [ -z "$EUID"]; then#ksh workaround

EUID=`id -u`

UID=`id -ru`

fi

USER="`id -un`"

LOGNAME=$USER

MAIL="/var/spool/mail/$USER"fi

# Path manipulation

if ["$EUID"="0"]; then

pathmunge /sbin

pathmunge /usr/sbin

pathmunge /usr/local/sbin

else

pathmunge /usr/local/sbin after

pathmunge /usr/sbin after

pathmunge /sbin after

fi

HOSTNAME=`/bin/hostname 2>/dev/null`

HISTSIZE=1000

if ["$HISTCONTROL"="ignorespace"] ; then

export HISTCONTROL=ignoreboth

else

export HISTCONTROL=ignoredups

fi

export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL

# By default, we want umask to get set. This sets it for login shell

# Current threshold for system reserved uid/gids is 200

# You could check uidgid reservation validity in

# /usr/share/doc/setup-*/uidgid file

if [ $UID -gt 199 ] && ["`id -gn`"="`id -un`"]; then

umask 002

else

umask 022

fi

for i in /etc/profile.d/*.sh ; do

if [ -r"$i"]; then

if ["${-#*i}" != "$-" ]; then

. "$i"

else."$i" >/dev/null 2>&1fi

fi

done

unset i

unset-fpathmunge

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.131.x86_64

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin#hadoop

export HADOOP_HOME=/home/hadoop/hadoop-2.7.3export PATH=$PATH:$HADOOP_HOME/sbin

export PATH=$PATH:$HADOOP_HOME/bin#zookeeper

export ZOOKEEPER_HOME=/home/zookeeper/zookeeper-3.4.6/export PATH=$ZOOKEEPER_HOME/bin:$PATHexport PATH#HBase

export HBASE_HOME=/home/hbase/hbase-1.2.4export PATH=$HBASE_HOME/bin:$PATHexport PATH#hive

export HIVE_HOME=/home/hive/apache-hive-2.1.1-bin

export PATH=$HIVE_HOME/bin:$PATHexport PATH

export HCAT_HOME=$HIVE_HOME/hcatalog#sqoop

export SQOOP_HOME=/home/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha

export SQOOP_CONF_DIR=$SQOOP_HOME/conf

export PATH=$SQOOP_HOME/bin:$PATHexport PATH

export MSSQL_CONNECTOR_HOME=/home/sqoop-sqlserver-1.0/

7、数据迁移实验

在执行迁移命令之前,需要在Hbase中建立好对应的表

#hbase shell

进入hbase shell后执行

>create 'test', 'cf'

然后在Terminal中执行

#sqoop import --connect 'jdbc:sqlserver://;username=;password=;database=' --table --hbase-table --column-family --hbase-row-key

需要注意:

①如果SQL Server的表是正常的单一主键的表结构,那么可以直接指定hbase-row-key执行上述命令,此时该命令会默认以多个mapreduce任务执行该指令

②如果SQL Server的表是联合主键,那么这样导入就会存在一个问题,无法根据主键分解查询任务,也就没有办法进行MapReduce,那么此时必须指定参数 '-m 1'只用一个mapreduce任务

③针对没有主键的情况,若数据量巨大,必须分为多个mapreduce任务,那么需要找到一个拆分字段,从而hive可以根据该字段拆分任务。此时我们须在导入指令中添加'--split-by '

在我实际的操作中,SQL Server中的表结构是联合主键,第一次导入表中100条数据记录,根据这篇博客的介绍,配置了$SQOOP_HOME/conf/sqoop-site.xml,我指定了'--hbase-row-key ,',并指定'-m 1',导入数据成功。(耗时22sec)

82ef9ed70c15b4a956ccec8a0c5e1239.png

第二次尝试将数据库中的近160W条数据记录导入到HBase中,添加参数'--split-by ',并指定'-m 12',数据同样导入成功。(耗时17min25sec)

81948e1a23e747276db4afe9a37a0f49.png

8、存在问题

对sqoop拆分任务的理解仍然不够深入,自己完成的实验虽然成功,但是并没有做对比实验确定真正的影响因素

9、参考文章

参考链接

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/427265.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

googlenet网络结构_CNN网络结构的发展

 CNN基本部件介绍,1. 局部感受野在图像中局部像素之间的联系较为紧密,而距离较远的像素联系相对较弱。因此,其实每个神经元没必要对图像全局进行感知,只需要感知局部信息,然后在更高层局部信息综合起来即可得到全局信…

linux数据库mysql的安装

1数据库文件放到opt下面 2赋予权限775 3运行脚本 4运行成功 5数据库操作 密码修改并刷新 权限修改,允许外部设备访问 6工具连接 7附录 1、显示当前数据库服务器中的数据库列表:   mysql> SHOW DATABASES;   2、建立数据库:   …

智能优化算法应用:基于侏儒猫鼬算法3D无线传感器网络(WSN)覆盖优化 - 附代码

智能优化算法应用:基于侏儒猫鼬算法3D无线传感器网络(WSN)覆盖优化 - 附代码 文章目录 智能优化算法应用:基于侏儒猫鼬算法3D无线传感器网络(WSN)覆盖优化 - 附代码1.无线传感网络节点模型2.覆盖数学模型及分析3.侏儒猫鼬算法4.实验参数设定5.算法结果6.…

Centos7中Memcached安装使用说明

安装编译libevent tar -zxvf libevent-2.0.21-stable.tar.gz cd libevent-2.0.21-stable ./configure --prefix/usr 配置报错,不着急,安装gcc试试 可以了 make make install 测试libevent是否安装成功 ls -al /usr/lib|grep libevent 安装成功 2.编译…

mysql-plus多数据库_Springboot+mybatisplus+mysql配置多数据源(注解版)

1、添加依赖,最关键的两个依赖是后面两个"druid依赖"和"配置动态数据源"(已标红),其他"非主要"依赖可按自身实际开发环境进行选择。org.springframework.bootspring-boot-starter-jdbcorg.springframework.bootspring-boo…

python用cmd运行失败_解决python在cmd运行时导入包失败,出现错误信息 ModuleNotFoundError: No module named ***...

1.下图为我的自动化测试工程结构图我通过运行run.bat批处理文件,调用cmd控制台运行start_run.py来开始我的自动化测试,但是出现如下错误:大家可能知道我们的工程在IDE(Pycharm)中运行和我们在cmd中运行的路径是不一样的&#xff0…

Centos7jdk安装

2.1查看现有JDK #rpm -qa|grep jdk (如果有其他版本的JDK建议卸载) 卸载其他版本的JDK命令 #yum –y remove java-1.6.0 #yum –y remov java* 重新安装(安装需要的JDK版本) #chmod 755 jdk-6u45-linux-x64-rpm.bin ./jdk-6u45-linux-x64-rpm.bin安装…

mysql分库一致性_分库分表带来的完整性和一致性问题

如果你对项目管理、系统架构有兴趣,请加微信订阅号“softjg”,加入这个PM、架构师的大家庭在最近做的一个项目中,由于每天核算的数据量过于庞大,需要把数据库进行分库保存。当数据分散到各个库之后,带来的数据更新操作…

同名字的数值求和插入行_EXCEL条件求和的6种技术,你会的超过3种吗?

今天我们来谈谈EXCEL中的条件求和。我们将利用不同的技术实现,而不是使用函数的6种方法直接开始吧!数据源结果1、数据透视表-难度系统★☆☆☆☆插入-透视表,行字段-销售员,值-金额2、 函数公式法-难度系数:★★☆☆☆…

Centos7构建NFS服务器和连接

准备两台centos7虚拟机 192.168.30.133 192.168.30.129 2.192.168.30.1(服务端), 3查看rpc服务是否启动 4测试安装是否成功 5修改配置文件vi/etc/exports /data 192.168.1.0/24(rw,async) 6启动服务 systemctl start nfs rpcinfo -p查看 …

maven pc配置要求_《使命召唤:黑色行动5》公开测试PC配置要求:推荐GTX970+i7

动视官方公开了《使命召唤:黑色行动5》的公开测试PC系统要求,从官方给出的信息来看,PC平台最低需求为GTX 670显卡i5 2500k处理器。 以下为官方公布的系统要求:PC公开测试最低配置需求操作系统:Windows 7 64-Bit (SP1) …

linux下源码安装nginx

LNMP模式 后续继续更新,先搭建nginx 安装环境gcc gcc-c 2 下载源码包解压 配置第一个报错 安装openssl openssl-devel yum -y install openssl openssl-devel Make报错 解决 tar -zxvf pcre-8.37.tar.gz cd pcre-8.34 ./configure make make install tar -zxvf …

jdk安装失败_windows配置安装单个Tomcat

1.前期准备1).将tomcat安装文件复制到服务器2) 安装jdk,将jdk对应的版本安装到服务器,安装好后cmd命令java -version可以看到对应的版本2.配置环境变量1)jdk安装好后配置jdk环境变量变量名:JAVA_HOME 变量值…

centos源码安装PHP

上篇博客说了nginx了,这篇说PHP,下一篇开始开始 bind相关知识 2开始解压 3 ./configure -help|grep mysql 帮助我们查找可以关于mysql的节点 4配置./configure --enable-fpm --with-mysql --with-mysqli --with-pdo-mysql 安装 5报错 6解决 7继续配…

word2vec训练词向量 python_使用Gensim word2vector训练词向量

注意事项Skip-Gram models:输入为单个词,输出目标为多个上下文单词;CBOW models:输入为多个上下文单词,输出目标为一个单词;选择的训练word2vec的语料要和要使用词向量的任务相似,并且越大越好&…

bind安装和主要配置

1 yum -y install bind bind-chroot 2rpm -qa|grep bind,查看安装状态 3service named start服务启动 4主配置文件name.conf Option{} 整个bind的全局选项 Logging{}日志输出选项 Zong 根域 这节比较简单,随便看看即可,持续更新bind相关知识…

为什么火狐浏览器中点击按钮失效_各种浏览器审查、监听http头工具介绍

一、谷歌内置的审查工具(v17.0)。右键点击审查(CtrlShirtAlt)浏览器下方会出现审查框,刷新网页就会出现下图所示,先后点击“netword”-->在下方选中资源(如下图的1.php)-->点击headers二、httpwatch。ShirtF2打开httpwatch点击Record按钮&#xff…

java 对象流_java 对象流的简单使用

对象的输入输出流的作用: 用于写入对象 的信息和读取对象的信息。 使得对象持久化。ObjectInputStream : 对象输入流ObjectOutPutStream :对象输出流简单的实例1 importjava.io.File;2 importjava.io.FileInputStream;3 importjava.io.FileOutputStre…

centos搭建ftp服务器

1安装vsftpd 2备份配置文件 3修改配置文件 vi /etc/vsftpd/vsftpd.conf anonymous_enableNO #允许匿名用户访问为了安全选择关闭 local_enableYES # 允许本地用户登录 write_enableYES # 是否允许写入 local_umask022 # 本地用户上传文件的umask dirmessage_enableYES #为YES…

ihtml2document能不能根据id获取dom_一段监视 DOM 的神奇代码

作者:Eddie Aich翻译:疯狂的技术宅原文:https://dev.to/eddieaich/spy-on-the-dom-3d47未经允许严禁转载通过使用此模块,只需将鼠标悬停在浏览器中,即可快速查看DOM元素的属性。基本上它是一个即时检查器。将鼠标悬停在…