Apache Hadoop HDFS数据节点Apache Mesos框架

介绍

该项目允许在Mesos上运行HDFS。 您应该熟悉HDFS和Mesos基础知识:

  • http://mesos.apache.org/documentation/latest/
  • https://hadoop.apache.org/docs/r2.7.2/hdfs_design.html



项目要求:

  • Mesos 0.23.0+
  • JDK 1.7.x
  • Hadoop 1.2.x或2.7.x

流浪汉

项目包括无所事事的环境 ,允许在本地运行Mesos集群。 如果您要使用外部Mesos群集,则可以跳过本节。

1.启动流浪节点:

# cd hdfs-mesos/vagrant
# vagrant up

它创建mesos主节点和从节点。

2.将流浪者节点名称添加到/etc/hosts

现在,流浪汉中的Mesos应该正在运行。 您可以继续启动调度程序。 有关流浪者环境的更多详细信息,请阅读vagrant / README.md

运行调度程序

1.下载hdfs-mesos\*.jar或克隆并构建项目:

下载jar:

# mkdir hdfs-mesos
# cd hdfs-mesos
# wget https://github.com/elodina/hdfs-mesos/releases/download/0.0.1.0/hdfs-mesos-0.0.1.0.jar

克隆并构建:

# git clone https://github.com/elodina/hdfs-mesos.git
# cd hdfs-mesos
# ./gradlew jar

2.下载hadoop tarball:

# wget https://archive.apache.org/dist/hadoop/core/hadoop-2.7.2/hadoop-2.7.2.tar.gz

3.启动调度程序:

# ./hdfs-mesos.sh scheduler --api=http://$scheduler:7000 --master=zk://$master:2181/mesos --user=vagrant
2016-03-18 15:04:48,785 [main] INFO hdfs.Scheduler - Starting Scheduler:
api: http://$scheduler:7000
files: jar:./hdfs-mesos-0.0.1.0.jar, hadoop:./hadoop-1.2.1.tar.gz
mesos: master:master:5050, user:vagrant, principal:<none>, secret:<none>
framework: name:hdfs, role:*, timeout:30d
2016-03-18 15:04:48,916 [main] INFO hdfs.HttpServer - started on port 7000
I0318 15:04:49.008314 19123 sched.cpp:164] Version: 0.25.0
I0318 15:04:49.017160 19155 sched.cpp:262] New master detected at master@192.168.3.5:5050
I0318 15:04:49.019287 19155 sched.cpp:272] No credentials provided. Attempting to register without authentication
I0318 15:04:49.029218 19155 sched.cpp:641] Framework registered with 20160310-141004-84125888-5050-10895-0006
2016-03-18 15:04:49,044 [Thread-17] INFO hdfs.Scheduler - [registered] framework:#-0006 master:#326bb pid:master@192.168.3.5:5050 hostname:master
2016-03-18 15:04:49,078 [Thread-18] INFO hdfs.Scheduler - [resourceOffers]
slave0#-O761 cpus:1.00; mem:2500.00; disk:35164.00; ports:[5000..32000]
master#-O762 cpus:1.00; mem:2500.00; disk:35164.00; ports:[5000..32000]
...
2016-03-18 15:04:49,078 [Thread-18] INFO hdfs.Scheduler - [resourceOffers]

哪里:

  • $scheduler是可从节点访问的$scheduler程序地址;
  • $master可从调度程序节点访问的主地址;

调度程序应自行注册并开始接收资源报价。 如果调度程序未收到报价,则可能需要指定LIBPROCESS_IP:

# export LIBPROCESS_IP=$scheduler_ip

现在调度程序应该正在运行,您可以继续启动HDFS节点。

运行HDFS群集

Project提供了CLI和REST API,用于管理HDFS节点。 我们将首先关注CLI。

1.添加名称节点和数据节点:

# ./hdfs-mesos.sh node add nn --type=namenode
node added:id: nntype: namenodestate: idleresources: cpus:0.5, mem:512# ./hdfs-mesos.sh node add dn0 --type=datanode
node added:id: dn0type: datanodestate: idleresources: cpus:0.5, mem:512

2.启动节点:

# ./hdfs-mesos.sh node start \*
nodes started:id: nntype: namenodestate: runningresources: cpus:0.5, mem:512reservation: cpus:0.5, mem:512, ports:http=5000,ipc=5001runtime:task: 383aaab9-982b-400e-aa35-463e66cdcb3bexecutor: 19065e07-a006-49a4-8f2b-636d8b1f2ad6slave: 241be3a2-39bc-417c-a967-82b4018a0762-S0 (master)id: dn0type: datanodestate: runningresources: cpus:0.5, mem:512reservation: cpus:0.5, mem:512, ports:http=5002,ipc=5003,data=5004runtime:task: 37f3bcbb-10a5-4323-96d2-aef8846aa281executor: 088463c9-5f2e-4d1d-8195-56427168b86fslave: 241be3a2-39bc-417c-a967-82b4018a0762-S0 (master)

节点已启动并正在运行。

注意:开始可能需要一些时间。 您可以通过Mesos UI查看进度。

3.执行一些FS操作:

# hadoop fs -mkdir hdfs://master:5001/dir
# hadoop fs -ls hdfs://master:5001/
Found 1 items
drwxr-xr-x   - vagrant supergroup          0 2016-03-17 12:46 /dir

注意:在fs url中使用了namenode主机和ipc端口。

使用CLI

Project提供具有以下结构的CLI:

# ./hdfs-mesos.sh help
Usage: <cmd> ...Commands:help [cmd [cmd]] - print general or command-specific helpscheduler        - start schedulernode             - node management

为每个命令和子命令提供了帮助:

# ./hdfs-mesos.sh help node
Node management commands
Usage: node <cmd>Commands:list       - list nodesadd        - add nodeupdate     - update nodestart      - start nodestop       - stop noderemove     - remove nodeRun `help node <cmd>` to see details of specific command# ./hdfs-mesos.sh help node add
Add node
Usage: node add <ids> [options]Option (* = required)  Description
---------------------  -----------
--core-site-opts       Hadoop core-site.xml options.
--cpus <Double>        CPU amount (0.5, 1, 2).
--executor-jvm-opts    Executor JVM options.
--hadoop-jvm-opts      Hadoop JVM options.
--hdfs-site-opts       Hadoop hdfs-site.xml options.
--mem <Long>           Mem amount in Mb.
* --type               node type (name_node, data_node).Generic Options
Option  Description
------  -----------
--api   REST api url (same as --api option forscheduler).

所有与节点相关的命令都支持使用node-id-expressions进行批量操作。 例子:

# ./hdfs-mesos.sh node add dn0..1 --type=datanode
nodes added:id: dn0type: datanode...id: dn1type: datanode...# ./hdfs-mesos.sh node update dn* --cpus=1
nodes updated:id: dn0...resources: cpus:1.0, mem:512id: dn1...resources: cpus:1.0, mem:512# ./hdfs-mesos.sh node start dn0,dn1
nodes started:id: dn0...id: dn0...

ID表达式示例:

  • nn –匹配ID为nn的节点
  • * –匹配任何节点(应在外壳中使用斜线转义)
  • dn* –匹配ID以dn开头的节点
  • dn0..2 –匹配节点dn0,dn1,dn2

使用REST

计划程序使用嵌入式HTTP服务器。 服务器具有两个功能:

  • 分发Hadoop,JRE和执行程序的二进制文件;
  • 提供REST API,由CLI调用;

大多数CLI命令都映射到REST API调用。 例子:

CLI命令 REST电话
node add nn --type=namenode --cpus=2 /api/node/add?node=nn&type=namenode&cpus=2
node start dn* --timeout=3m- /api/node/start?node=dn*&timeout=3m
node remove dn5 /api/node/remove?node=dn5

REST调用接受纯HTTP参数,并返回JSON响应。 例子:

# curl http://$scheduler:7000/api/node/list
[{"id": "nn","type": "namenode",...},{"id": "dn0","type": "datanode",...}
]# curl http://$scheduler:7000/api/node/start?node=nn,dn0
{"status": "started","nodes": [{"id": "nn","state": "running",...},{"id": "dn0","state": "running",...}]
}

CLI参数将一对一映射到REST参数。 CLI参数使用虚线样式,而REST参数使用驼峰式。 映射示例:

CLI参数 REST参数
<id> (节点添加|更新| ...) node
timeout (节点开始|停止) timeout
core-site-opts (节点添加|更新) coreSiteOpts
executor-jvm-opts (节点添加|更新) executorJvmOpts

在某些情况下,REST API调用可能返回错误。 错误标记为状态代码,而不是200。错误响应以JSON格式返回。

例:

# curl -v http://192.168.3.1:7000/api/node/start?node=unknown
...
HTTP/1.1 400 node not found
...
{"error":"node not found","code":400}

有关REST API的更多详细信息,请参阅源。

翻译自: https://www.javacodegeeks.com/2016/06/apache-hadoop-hdfs-data-node-apache-mesos-framework.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/353060.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

java byte 转 c_C 和 Java 之间的byte数据的转换问题

C语言里通常可能开发人员直接定义struct 作为数据包,因此在java客户端接收struct 中的数据时候,受整数等类型的高低位存放的影响,需要进行相应的转换,参考:转换代码如下:package com.lizongbo.util;/**** Title: 数字转换工具类** Description: 将数字类型与byte数组互相转换**…

MyEclipse中如何设置 jdk 和 jre 编译运行环境

MyEclipse设置JDK和JRE具体的应用版本其实很简单&#xff0c;分为三种状况&#xff1a; 1、设置默认使用的JDK和JRE环境。 具体步骤&#xff1a;菜单window-preferences-java-Installed JRES。 点中了&#xff0c;右边的窗口点ADD按钮&#xff0c;记住选择添加安装了Java目录下…

dubbo集群服务下一台服务挂了对服务调用的影响

一、问题描述&#xff1a;项目中2台dubbo服务给移动端提供查询接口&#xff0c;移动端反应说查询时而很快(秒刷)&#xff0c;时而很慢(4-5秒)。 二、问题分析&#xff1a; 1、问题猜想&#xff1a;网络不稳定原因导致&#xff0c;但是切换公司wifi和手机4G,问题依旧存在。说明问…

C89与C99标准比较

1、增加restrict指针 C99中增加了公适用于指针的restrict类型修饰符&#xff0c;它是初始访问指针所指对象的惟一途径&#xff0c;因此只有借助restrict指针表达式才能访问对象。restrict指针指针主要用做函数变元&#xff0c;或者指向由malloc()函数所分配的内存变量。restri…

java rest客户端_Java中的简单REST客户端

java rest客户端如今&#xff0c;大多数用于与某些服务器通信的移动应用程序都使用REST服务。 这些服务也是JavaScript或jQuery的常用惯例。 现在&#xff0c;我知道在Java中为REST服务创建客户端的2种方法&#xff0c;在本文中&#xff0c;我将尝试演示这两种方法&#xff0c;…

C++并发编程实战---阅读笔记

1. 当把函数对象传入到线程构造函数中时&#xff0c;需要避免“最令人头痛的语法解析”。如果传递了一个临时变量&#xff0c;而不是一个命名的变量&#xff1b;C编译器会将其解析为函数声明&#xff0c;而不是类型对象的定义。 例如&#xff1a; class background_task { publ…

java md2_java中加密的实现方法(MD5,MD2,SHA)

java中加密的实现方法(MD5&#xff0c;MD2&#xff0c;SHA)实例代码&#xff1a;注释都很清楚&#xff0c;import java.security.MessageDigest;import javax.xml.bind.annotation.adapters.HexBinaryAdapter;public class Main {static String src "Hello,sahadev!"…

Java向后不兼容历史的观察

在大多数情况下&#xff0c;Java是一个非常向后兼容的编程语言。 这样做的好处是&#xff0c;与大规模破坏兼容性相比&#xff0c;大型系统通常可以相对容易的方式升级为使用Java的较新版本。 这样做的主要缺点是Java坚持了一些设计决策&#xff0c;这些决策自那时以来就被认为…

C语言中输入输出格式控制

1、C语言中&#xff0c;非零值为真&#xff0c;真用1表示&#xff1b;零值为假&#xff0c;假用0表示。 2、转义字符参考&#xff1a; \a 蜂鸣&#xff0c;响铃 \b 回退&#xff1a;向后退一格 \f 换页 \n 换行 \r 回车&#xff0c;光标到本行行首 \t 水平制表 …

java udp 接受阻塞_Java UDP发送与接收

IP地址&#xff1f;端口号&#xff1f;主机名&#xff1f;什么是Socket?什么是UDP&#xff1f;什么是TCP&#xff1f;UDP和TCP区别&#xff1f;以上问题请自行百度&#xff0c;有标准解释&#xff0c;此处不再赘述&#xff0c;直接上干货&#xff01;实例&#xff1a;发送端&a…

JavaScript 运行机制详解:Event Loop

参考地址&#xff1a;http://www.ruanyifeng.com/blog/2014/10/event-loop.html 一、为什么JavaScript是单线程&#xff1f; JavaScript语言的一大特点就是单线程&#xff0c;也就是说&#xff0c;同一个时间只能做一件事。那么&#xff0c;为什么JavaScript不能有多个线程呢&a…

原码, 反码, 补码 详解

本篇文章讲解了计算机的原码, 反码和补码. 并且进行了深入探求了为何要使用反码和补码, 以及更进一步的论证了为何可以用反码, 补码的加法计算原码的减法. 论证部分如有不对的地方请各位牛人帮忙指正! 希望本文对大家学习计算机基础有所帮助! 一. 机器数和真值 在学习原码, 反码…

java eden space_JVM虚拟机20:内存区域详解(Eden Space、Survivor Space、Old Gen、Code Cache和Perm Gen)...

1.内存区域划分根据我们之前介绍的垃圾收集算法&#xff0c;限定商用虚拟机基本都采用分代收集算法进行垃圾回收。根据对象的生命周期的不同将内存划分为几块&#xff0c;然后根据各块的特点采用最适当的收集算法。大批对象死去、少量对象存活的&#xff0c;使用复制算法&#…

gradle 插件 自定义_Gradle自定义插件

gradle 插件 自定义本教程介绍了创建Gradle独立自定义插件的方法。 它涵盖以下主题 创建任务&#xff0c;并在“自定义”插件中使用 独立的自定义插件 简短的插件ID 使用settings.gradle自定义Gradle设置 项目信息&#xff1a; Gradle版本&#xff1a;1.1 操作系统平台&…

Pytorch常用操作

创建tensor x torch.empty(*sizes)  #创建一个未初始化的tensor&#xff08;后面用torch.nn.init中的一些函数进行初始化&#xff09; >>> torch.empty(2, 3) tensor(1.00000e-08 * [[ 6.3984, 0.0000, 0.0000], [ 0.0000, 0.0000, 0.0000]]) x torch.rand(5, 3…

数据聚合Spring Data MongoDB:嵌套结果

1引言 在上一篇文章中&#xff0c;我们构建了聚合管道的基本示例。 如果您需要有关如何创建项目和配置应用程序的更多详细信息&#xff0c;也许您想看看使用Spring Data MongoDB和Spring Boot进行数据聚合 。 在本文中&#xff0c;我们将重点研究一个用例&#xff0c;在这种情况…

如何消除img默认的间距

方案一:div{font-size:0};方案二:img{ display:block};方案三:img{vertical-align:top;}方案四&#xff1a;div{ margin-bottom:-3px }; 为什么会有间距呢&#xff1f; 根本原因在于img标签为inline元素&#xff0c;该元素默认垂直对齐方式为以父元素的baseline&#xff0c;但是…

scanf中的%[^\n]%*c格式

scanf 语法: #include <stdio.h> int scanf( const char *format, ... ); 类似函数有 int scanf(const char *format, ...); int fscanf(FILE *stream, const char *format, ...);//指定输入流 int sscanf(const char *str, const char *for…

java有理数类的封装_java实验报告有理数的类封装.doc

java实验报告有理数的类封装华中科技大学文华学院《Java程序设计》实验报告实验三&#xff1a;有理数的类封装专业班级&#xff1a; 通信工程2008级1班姓名&#xff1a;学号&#xff1a;时间&#xff1a;实验三&#xff1a;有理数的类封装1、实验目的&#xff1a;让学生学习使用…

vim基本设置

vim基本配置&#xff1a;包括tab键替换成4个空格 Edit Vim configuration file ".vimrc" in your HOME directory, add below lines: [plain] view plaincopy set et set ci set sw4 set ts4 After new setting take effect, each time you press TAB key, …