hbase 导入mysql_HBase导入SQL Server数据库数据

在先前的几篇随笔中已经介绍了Hadoop、Zookeeper、Hbase的分布式框架搭建方案,目前已经搭建完成了一个包含11个节点的分布式集群。而对于HBase数据库的使用仅限于测试性质的增删改查指令,为了进一步熟悉分布式框架的使用,本文介绍将已有的数据从关系型数据库SQL Server中导入到HBase中的方法。

要完成从关系型数据库到HBase数据的迁移,我们需要使用Sqoop工具,Sqoop是Apache的一个独立项目,设计目的即是在Hadoop(Hive)和传统数据库(MySQL、postgresql)之间进行数据的传递。Sqoop工具基于数据仓库工具Hive,通过Hive来将数据查询转换成MapReduce任务实现数据的传递。因此,要完成本次数据的迁移,我们需要以下几个准备:

④Connector between SQL Server and Sqoop:sqoop-sqlserver-1.0.tar.gz

======================以下所有操作均在Master主机上并且以root用户执行======================

1、安装Hive

①建立hive目录

cd /home

mkdir hive

②解压安装包(安装包移至/home/hive下)

tar -zxvf apache-hive-2.1.1-bin.tar.gz

③设置环境变量

vi /etc/profile

追加以下:

export HIVE_HOME=/home/hive/apche-hive-2.1.1-bin

export PATH=$HIVE_HOME/bin:$PATH

export PATH

追加以下:

export HCAT_HOME=$HIVE_HOME/hcatalog

④使配置生效

source /etc/profile

2、安装sqoop

①建立sqoop目录

cd /home

mkdir sqoop

②解压安装包(安装包移至/home/sqoop下)

tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz

③设置环境变量

vi /etc/profile

追加以下:

export SQOOP_HOME=/home/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha

export SQOOP_CONF_DIR=$SQOOP_HOME/conf

export PATH=$SQOOP_HOME/bin:$PATH

export PATH

④使配置生效

source /etc/profile

3、配置JDBC

①解压(位置随意)

tar -zxvf sqljdbc_3.0.1301.101_enu.atr.gz

②复制jdbc到sqoop下

cp sqljdbc_3.0/enu/sqljdbc4.jar /home/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib

4、配置SQL Server sqoop Connector

①解压(位置随意,这里是/home)

tar -zxvf sqoop-sqlserver-1.0.tar.gz

②设置环境变量

vi /etc/profile

追加以下:

export MSSQL_CONNECTOR_HOME=/home/sqoop-sqlserver-1.0/

配置生效:

source /etc/profile

③配置到sqoop

cd sqoop-sqlserver-1.0

./install.sh

5、 配置sqoop

存在这部分工作的原因是sqoop的默认配置会有一些我们不需要用到的东西,在其配置文件$SQOOP_HOME/bin/configure-sqoop文件中,定义了许多需要预先配置的参数与环境,有些我们已经配置完成,但是另外有些是不需要用到的(目前还没意识到有什么作用),因此,为了防止运行时检查配置不通过,我们直接的处理办法就是取消这部分的配置检查。

注释ACCUMULO相关配置:在configure-sqoop文件中,注释掉与ACCUMULO_HOME相关的所有命令行,并保存退出。

6、目前的环境变量

值得注意的是,之前并没有加入HBase的环境变量,在这里是需要把HBase相关的环境变量加入的。

#/etc/profile

#System wide environment and startup programs, for login setup#Functions and aliases go in /etc/bashrc

#It's NOT a good idea to change this file unless you know what you#are doing. It's much better to create a custom.sh shell script in#/etc/profile.d/ to make custom changes to your environment, as this#will prevent the need for merging in future updates.

pathmunge () {

case":${PATH}:" in

*:"$1":*)

;;*)if [ "$2" = "after"] ; then

PATH=$PATH:$1

elsePATH=$1:$PATHfi

esac

}if [ -x /usr/bin/id ]; thenif [ -z "$EUID"]; then#ksh workaround

EUID=`id -u`

UID=`id -ru`

fi

USER="`id -un`"

LOGNAME=$USER

MAIL="/var/spool/mail/$USER"fi

# Path manipulation

if ["$EUID"="0"]; then

pathmunge /sbin

pathmunge /usr/sbin

pathmunge /usr/local/sbin

else

pathmunge /usr/local/sbin after

pathmunge /usr/sbin after

pathmunge /sbin after

fi

HOSTNAME=`/bin/hostname 2>/dev/null`

HISTSIZE=1000

if ["$HISTCONTROL"="ignorespace"] ; then

export HISTCONTROL=ignoreboth

else

export HISTCONTROL=ignoredups

fi

export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL

# By default, we want umask to get set. This sets it for login shell

# Current threshold for system reserved uid/gids is 200

# You could check uidgid reservation validity in

# /usr/share/doc/setup-*/uidgid file

if [ $UID -gt 199 ] && ["`id -gn`"="`id -un`"]; then

umask 002

else

umask 022

fi

for i in /etc/profile.d/*.sh ; do

if [ -r"$i"]; then

if ["${-#*i}" != "$-" ]; then

. "$i"

else."$i" >/dev/null 2>&1fi

fi

done

unset i

unset-fpathmunge

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.131.x86_64

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin#hadoop

export HADOOP_HOME=/home/hadoop/hadoop-2.7.3export PATH=$PATH:$HADOOP_HOME/sbin

export PATH=$PATH:$HADOOP_HOME/bin#zookeeper

export ZOOKEEPER_HOME=/home/zookeeper/zookeeper-3.4.6/export PATH=$ZOOKEEPER_HOME/bin:$PATHexport PATH#HBase

export HBASE_HOME=/home/hbase/hbase-1.2.4export PATH=$HBASE_HOME/bin:$PATHexport PATH#hive

export HIVE_HOME=/home/hive/apache-hive-2.1.1-bin

export PATH=$HIVE_HOME/bin:$PATHexport PATH

export HCAT_HOME=$HIVE_HOME/hcatalog#sqoop

export SQOOP_HOME=/home/sqoop/sqoop-1.4.6.bin__hadoop-2.0.4-alpha

export SQOOP_CONF_DIR=$SQOOP_HOME/conf

export PATH=$SQOOP_HOME/bin:$PATHexport PATH

export MSSQL_CONNECTOR_HOME=/home/sqoop-sqlserver-1.0/

7、数据迁移实验

在执行迁移命令之前,需要在Hbase中建立好对应的表

#hbase shell

进入hbase shell后执行

>create 'test', 'cf'

然后在Terminal中执行

#sqoop import --connect 'jdbc:sqlserver://;username=;password=;database=' --table --hbase-table --column-family --hbase-row-key

需要注意:

①如果SQL Server的表是正常的单一主键的表结构,那么可以直接指定hbase-row-key执行上述命令,此时该命令会默认以多个mapreduce任务执行该指令

②如果SQL Server的表是联合主键,那么这样导入就会存在一个问题,无法根据主键分解查询任务,也就没有办法进行MapReduce,那么此时必须指定参数 '-m 1'只用一个mapreduce任务

③针对没有主键的情况,若数据量巨大,必须分为多个mapreduce任务,那么需要找到一个拆分字段,从而hive可以根据该字段拆分任务。此时我们须在导入指令中添加'--split-by '

在我实际的操作中,SQL Server中的表结构是联合主键,第一次导入表中100条数据记录,根据这篇博客的介绍,配置了$SQOOP_HOME/conf/sqoop-site.xml,我指定了'--hbase-row-key ,',并指定'-m 1',导入数据成功。(耗时22sec)

82ef9ed70c15b4a956ccec8a0c5e1239.png

第二次尝试将数据库中的近160W条数据记录导入到HBase中,添加参数'--split-by ',并指定'-m 12',数据同样导入成功。(耗时17min25sec)

81948e1a23e747276db4afe9a37a0f49.png

8、存在问题

对sqoop拆分任务的理解仍然不够深入,自己完成的实验虽然成功,但是并没有做对比实验确定真正的影响因素

9、参考文章

参考链接

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/427265.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

googlenet网络结构_CNN网络结构的发展

 CNN基本部件介绍,1. 局部感受野在图像中局部像素之间的联系较为紧密,而距离较远的像素联系相对较弱。因此,其实每个神经元没必要对图像全局进行感知,只需要感知局部信息,然后在更高层局部信息综合起来即可得到全局信…

linux数据库mysql的安装

1数据库文件放到opt下面 2赋予权限775 3运行脚本 4运行成功 5数据库操作 密码修改并刷新 权限修改,允许外部设备访问 6工具连接 7附录 1、显示当前数据库服务器中的数据库列表:   mysql> SHOW DATABASES;   2、建立数据库:   …

智能优化算法应用:基于侏儒猫鼬算法3D无线传感器网络(WSN)覆盖优化 - 附代码

智能优化算法应用:基于侏儒猫鼬算法3D无线传感器网络(WSN)覆盖优化 - 附代码 文章目录 智能优化算法应用:基于侏儒猫鼬算法3D无线传感器网络(WSN)覆盖优化 - 附代码1.无线传感网络节点模型2.覆盖数学模型及分析3.侏儒猫鼬算法4.实验参数设定5.算法结果6.…

偏函数 匿名函数 高阶函数 map filter reduce

# 偏函数 创建一个新的函数,指定我们要使用的函数的某个参数为固定的值,这个新函数就是偏函数 def test(a, b, c, d1):print(a b c d)from functools import partial # 使用偏函数必须导入此模块newFunc partial(test, c5) # newFunc为偏函数&…

Centos7中Memcached安装使用说明

安装编译libevent tar -zxvf libevent-2.0.21-stable.tar.gz cd libevent-2.0.21-stable ./configure --prefix/usr 配置报错,不着急,安装gcc试试 可以了 make make install 测试libevent是否安装成功 ls -al /usr/lib|grep libevent 安装成功 2.编译…

mysql-plus多数据库_Springboot+mybatisplus+mysql配置多数据源(注解版)

1、添加依赖,最关键的两个依赖是后面两个"druid依赖"和"配置动态数据源"(已标红),其他"非主要"依赖可按自身实际开发环境进行选择。org.springframework.bootspring-boot-starter-jdbcorg.springframework.bootspring-boo…

python用cmd运行失败_解决python在cmd运行时导入包失败,出现错误信息 ModuleNotFoundError: No module named ***...

1.下图为我的自动化测试工程结构图我通过运行run.bat批处理文件,调用cmd控制台运行start_run.py来开始我的自动化测试,但是出现如下错误:大家可能知道我们的工程在IDE(Pycharm)中运行和我们在cmd中运行的路径是不一样的&#xff0…

Centos7jdk安装

2.1查看现有JDK #rpm -qa|grep jdk (如果有其他版本的JDK建议卸载) 卸载其他版本的JDK命令 #yum –y remove java-1.6.0 #yum –y remov java* 重新安装(安装需要的JDK版本) #chmod 755 jdk-6u45-linux-x64-rpm.bin ./jdk-6u45-linux-x64-rpm.bin安装…

java自学 day8

Map Map初始化 Map<String, String> map new HashMap<String, String>(); 添加数据 map.put("key1", "value1"); 删除数据 map.remove("key1"); 获取数据 map.get("key1"); 清空map map.clear(); 使用keySet()遍历 for (…

python怎么读取github_六行代码获取Github排名前10的Python项目

六行代码获取Github排名前10的Python项目Github开放了不少API。下面是对这些API的一个使用。# 获取返回信息import requests as rurl"https://api.github.com/search/repositories?qlanguage:python&sort"import jsonLjson.loads(r.get(url).text)for item in L…

mysql分库一致性_分库分表带来的完整性和一致性问题

如果你对项目管理、系统架构有兴趣&#xff0c;请加微信订阅号“softjg”&#xff0c;加入这个PM、架构师的大家庭在最近做的一个项目中&#xff0c;由于每天核算的数据量过于庞大&#xff0c;需要把数据库进行分库保存。当数据分散到各个库之后&#xff0c;带来的数据更新操作…

BZOJ4293 Siano

题头&#xff1a; 描述 农夫Byteasar买了一片n亩的土地&#xff0c;他要在这上面种草。 他在每一亩土地上都种植了一种独一无二的草&#xff0c;其中&#xff0c;第i亩土地的草每天会长高a[i]厘米。 Byteasar一共会进行m次收割&#xff0c;其中第i次收割在第d[i]天&#xff0c;…

同名字的数值求和插入行_EXCEL条件求和的6种技术,你会的超过3种吗?

今天我们来谈谈EXCEL中的条件求和。我们将利用不同的技术实现&#xff0c;而不是使用函数的6种方法直接开始吧&#xff01;数据源结果1、数据透视表-难度系统★☆☆☆☆插入-透视表&#xff0c;行字段-销售员&#xff0c;值-金额2、 函数公式法-难度系数&#xff1a;★★☆☆☆…

pb mysql 中文乱码_解决springmvc+mybatis+mysql中文乱码问题

近日使用ajax请求springmvc后台查询mysql数据库&#xff0c;页面显示中文出现乱码最初在mybatis配置如下select text from News where id#{o}其中表News的text字段为blob类型如此查出的text值在控制台中一直显示乱码。之后google查找相关resultTypeblob相关内容无果&#xff0c…

Centos7构建NFS服务器和连接

准备两台centos7虚拟机 192.168.30.133 192.168.30.129 2.192.168.30.1&#xff08;服务端&#xff09;&#xff0c; 3查看rpc服务是否启动 4测试安装是否成功 5修改配置文件vi/etc/exports /data 192.168.1.0/24(rw,async) 6启动服务 systemctl start nfs rpcinfo -p查看 …

Font Awesome 中文网

Font Awesome 中文网 转载于:https://www.cnblogs.com/beimingbingpo/p/9430703.html

maven pc配置要求_《使命召唤:黑色行动5》公开测试PC配置要求:推荐GTX970+i7

动视官方公开了《使命召唤&#xff1a;黑色行动5》的公开测试PC系统要求&#xff0c;从官方给出的信息来看&#xff0c;PC平台最低需求为GTX 670显卡i5 2500k处理器。 以下为官方公布的系统要求&#xff1a;PC公开测试最低配置需求操作系统&#xff1a;Windows 7 64-Bit (SP1) …

python wireshark_用python编写脚本从wireshark导出的数据文件中提取数据

上篇文章搭建了一个UDP多播程序的基础&#xff0c;所谓基础&#xff0c;就是看着它&#xff0c;我可以写简单的多播程序了&#xff0c;可以在这个基础上面开始工作了。会多播了&#xff0c;多播的内容从哪里来&#xff0c;播出什么内容呢&#xff1f;呵呵&#xff0c;有个设备&…

linux下源码安装nginx

LNMP模式 后续继续更新&#xff0c;先搭建nginx 安装环境gcc gcc-c 2 下载源码包解压 配置第一个报错 安装openssl openssl-devel yum -y install openssl openssl-devel Make报错 解决 tar -zxvf pcre-8.37.tar.gz cd pcre-8.34 ./configure make make install tar -zxvf …

百度地图两个坐标之间的距离计算

/** * 计算两组经纬度坐标 之间的距离 * params &#xff1a;lat1 纬度1&#xff1b; lng1 经度1&#xff1b; lat2 纬度2&#xff1b; lng2 经度2&#xff1b; len_type &#xff08;1:m or 2:km); * return m or km */ /** * 根据经纬度查询距离 * param lng1 经度 * param l…