Hadoop伪分布配置与基于Eclipse开发环境搭建

国内私募机构九鼎控股打造APP,来就送 20元现金领取地址:http://jdb.jiudingcapital.com/phone.html
内部邀请码:C8E245J (不写邀请码,没有现金送)
国内私募机构九鼎控股打造,九鼎投资是在全国股份转让系统挂牌的公众公司,股票代码为430719,为中国PE第一股,市值超1000亿元。 

------------------------------------------------------------------------------------------------------------------------------------------------------------------

 

原文地址: http://my.oschina.net/lanzp/blog/309078

 

目录[-]

  • 1、开发配置环境:
  • 2、Hadoop服务端配置(Master节点)
  • 3、基于Eclipse的Hadoop2.x开发环境配置
  • 4、运行Hadoop程序及查看运行日志

1、开发配置环境:

开发环境:Win7(64bit)+Eclipse(kepler service release 2)

配置环境:Ubuntu Server 14.04.1 LTS(64-bit only)

辅助工具:WinSCP + Putty

Hadoop版本:2.5.0

Hadoop的Eclipse开发插件(2.x版本适用):http://pan.baidu.com/s/1eQy49sm

服务器端JDK版本:OpenJDK7.0

 

以上所有工具请自行下载安装。

2、Hadoop服务端配置(Master节点)

  最近一直在摸索Hadoop2的配置,因为Hadoop2对原有的一些框架API做了调整,但也还是兼容旧版本的(包括配置)。像我这种就喜欢用新的东西的人,当然要尝一下鲜了,现在网上比较少新版本的配置教程,那么下面我就来分享一下我自己的实战经验,如有不正确的地欢迎指正:)。

  假设我们已经成功地安装了Ubuntu Server、OpenJDK、SSH,如果还没有安装的话请先安装,自己网上找一下教程,这里我就说一下SSH的无口令登陆设置。首先通过

       

?
1
  $ ssh localhost

 

测试一下自己有没有设置好无口令登陆,如果没有设置好,系统将要求你输入密码,通过下面的设置可以实现无口令登陆,具体原理请百度谷歌:

         

?
1
2
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

 

  其次是Hadoop安装(假设已经安装好OpenJDK以及配置好了环境变量),到Hadoop官网下载一个Hadoop2.5.0版本的下来,好像大概有100多M的tar.gz包,下载 下来后自行解压,我的是放在/usr/mywind下面,Hadoop主目录完整路径是/usr/mywind/hadoop,这个路径根据你个人喜好放吧。

  解压完后,打开hadoop主目录下的etc/hadoop/hadoop-env.sh文件,在最后面加入下面内容:

?
1
2
3
4
5
# set to the root of your Java installation
  export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
  
# Assuming your installation directory is /usr/mywind/hadoop
export HADOOP_PREFIX=/usr/mywind/hadoop

 

为了方便起见,我建设把Hadoop的bin目录及sbin目录也加入到环境变量中,我是直接修改了Ubuntu的/etc/environment文件,内容如下:

?
1
2
3
PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/lib/jvm/java-7-openjdk-amd64/bin:/usr/mywind/hadoop/bin:/usr/mywind/hadoop/sbin"
JAVA_HOME="/usr/lib/jvm/java-7-openjdk-amd64"
CLASSPATH=".:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar"

 

也可以通过修改profile来完成这个设置,看个人习惯咯。假如上面的设置你都完成了,可以在命令行里面测试一下Hadoop命令,如下图:

假如你能看到上面的结果,恭喜你,Hadoop安装完成了。接下来我们可以进行伪分布配置(Hadoop可以在伪分布模式下运行单结点)。

接下来我们要配置的文件有四个,分别是/usr/mywind/hadoop/etc/hadoop目录下的yarn-site.xml、mapred-site.xml、hdfs-site.xml、core-site.xml(注意:这个版本下默认没有yarn-site.xml文件,但有个yarn-site.xml.properties文件,把后缀修改成前者即可),关于yarn新特性可以参考官网或者这个文章http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-yarn/。

首先是core-site.xml配置HDFS地址及临时目录(默认的临时目录在重启后会删除):

?
1
2
3
4
5
6
7
8
9
10
11
12
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.8.184:9000</value>
         <description>same as fs.default.name</description>
    </property>
     <property>
       <name>hadoop.tmp.dir</name>
       <value>/usr/mywind/tmp</value>
        <description>A base for other temporary directories.</description>
     </property>
</configuration>

 

然后是hdfs-site.xml配置集群数量及其他一些可选配置比如NameNode目录、DataNode目录等等:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
<configuration>
     <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/mywind/name</value>
        <description>same as dfs.name.dir</description>
     </property>
     <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/mywind/data</value>
        <description>same as dfs.data.dir</description>
     </property>
     <property>
        <name>dfs.replication</name>
        <value>1</value>
        <description>same as old frame,recommend set the value as the cluster DataNode host numbers!</description>
     </property>
</configuration>

 

接着是mapred-site.xml配置启用yarn框架:

?
1
2
3
4
5
6
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

 

最后是yarn-site.xml配置NodeManager:

?
1
2
3
4
5
6
7
<configuration>
 <!-- Site specific YARN configuration properties --> 
  <property
         <name>yarn.nodemanager.aux-services</name
         <value>mapreduce_shuffle</value
  </property
</configuration>

 

注意,网上的旧版本教程可能会把value写成mapreduce.shuffle,这个要特别注意一下的,至此我们所有的文件配置都已经完成了,下面进行HDFS文件系统进行格式化:

?
1
2
          
$ hdfs namenode -format

 

然后启用NameNode及DataNode进程:

?
1
2
        
$ start-yarn.sh

 

然后创建hdfs文件目录

?
1
2
$ hdfs dfs -mkdir /user
$ hdfs dfs -mkdir /user/a01513

 

注意,这个a01513是我在Ubuntu上的用户名,最好保持与系统用户名一致,据说不一致会有许多权限等问题,我之前试过改成其他名字,报错,实在麻烦就改成跟系统用户名一致吧。

然后把要测试的输入文件放在文件系统中:

        

?
1
$ hdfs dfs -put /usr/mywind/psa input

 

文件内容是Hadoop经典的天气例子的数据:

?
1
2
3
4
5
6
7
8
9
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+001212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+021212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+003212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+004212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+010212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+041212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+008212345678903456

 

把文件拷贝到HDFS目录之后,我们可以通过浏览器查看相关的文件及一些状态:

http://192.168.8.184:50070/

这里的IP地址根据你实际的Hadoop服务器地址啦。

好吧,我们所有的Hadoop后台服务搭建跟数据准备都已经完成了,那么我们的M/R程序也要开始动手写了,不过在写当然先配置开发环境了。

3、基于Eclipse的Hadoop2.x开发环境配置

关于JDK及ECLIPSE的安装我就不再介绍了,相信能玩Hadoop的人对这种配置都已经再熟悉不过了,如果实在不懂建议到谷歌百度去搜索一下教程。假设你已经把Hadoop的Eclipse插件下载下来了,然后解压把jar文件放到Eclipse的plugins文件夹里面:

重启Eclipse即可。

然后我们再安装Hadoop到Win7下,在这不再详细说明,跟安装JDK大同小异,在这个例子中我安装到了E:\hadoop。

启动Eclipse,点击菜单栏的【Windows/窗口】→【Preferences/首选项】→【Hadoop Map/Reduce】,把Hadoop Installation Directory设置成开发机上的Hadoop主目录:

点击OK。

开发环境配置完成,下面我们可以新建一个测试Hadoop项目,右键【NEW/新建】→【Others、其他】,选择Map/Reduce Project

 

输入项目名称点击【Finish/完成】:

创建完成后可以看到如下目录:

然后在SRC下建立下面包及类:

以下是代码内容:

TestMapper.java

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
package com.my.hadoop.mapper;
  
import java.io.IOException;
  
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reporter;
  
public class TestMapper extends MapReduceBase implements Mapper<LongWritable, Text, Text, IntWritable> {
         private static final int MISSING = 9999;
         private static final Log LOG = LogFactory.getLog(TestMapper.class);
  
          public void map(LongWritable key, Text value, OutputCollector<Text, IntWritable> output,Reporter reporter)
               throws IOException {
             String line = value.toString();
             String year = line.substring(1519);
             int airTemperature;
             if (line.charAt(87) == '+') { // parseInt doesn't like leading plus signs
               airTemperature = Integer.parseInt(line.substring(8892));
             else {
               airTemperature = Integer.parseInt(line.substring(8792));
             }
             LOG.info("loki:"+airTemperature);
             String quality = line.substring(9293);
             LOG.info("loki2:"+quality);
             if (airTemperature != MISSING && quality.matches("[012459]")) {
               LOG.info("loki3:"+quality);
               output.collect(new Text(year), new IntWritable(airTemperature));
             }
           }
  
}

TestReducer.java

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
package com.my.hadoop.reducer;
  
import java.io.IOException;
import java.util.Iterator;
  
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.Reducer;
  
public class TestReducer extends MapReduceBase implements Reducer<Text, IntWritable, Text, IntWritable> {
  
         @Override
           public void reduce(Text key, Iterator<IntWritable> values, OutputCollector<Text, IntWritable> output,Reporter reporter)
               throws IOException{
             int maxValue = Integer.MIN_VALUE;
             while (values.hasNext()) {
               maxValue = Math.max(maxValue, values.next().get());
             }
             output.collect(key, new IntWritable(maxValue));
           }
  
}

TestHadoop.java

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
package com.my.hadoop.test.main;
  
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
  
import com.my.hadoop.mapper.TestMapper;
import com.my.hadoop.reducer.TestReducer;
  
public class TestHadoop {
         
         public static void main(String[] args) throws Exception{
                   
                   if (args.length != 2) {
                         System.err
                             .println("Usage: MaxTemperature <input path> <output path>");
                         System.exit(-1);
                       }
                   JobConf job = new JobConf(TestHadoop.class);
             job.setJobName("Max temperature");
             FileInputFormat.addInputPath(job, new Path(args[0]));
             FileOutputFormat.setOutputPath(job, new Path(args[1]));
             job.setMapperClass(TestMapper.class);
             job.setReducerClass(TestReducer.class);
             job.setOutputKeyClass(Text.class);
             job.setOutputValueClass(IntWritable.class);
             JobClient.runJob(job);
         }
         
}

为了方便对于Hadoop的HDFS文件系统操作,我们可以在Eclipse下面的Map/Reduce Locations窗口与Hadoop建立连接,直接右键新建Hadoop连接即可:

连接配置如下:

然后点击完成即可,新建完成后,我们可以在左侧目录中看到HDFS的文件系统目录:

这里不仅可以显示目录结构,还可以对文件及目录进行删除、新增等操作,非常方便。

 

当上面的工作都做好之后,就可以把这个项目导出来了(导成jar文件放到Hadoop服务器上运行):

点击完成,然后把这个testt.jar文件上传到Hadoop服务器(192.168.8.184)上,目录(其实可以放到其他目录,你自己喜欢)是:

?
1
/usr/mywind/hadoop/share/hadoop/mapreduce

 

如下图:

 

4、运行Hadoop程序及查看运行日志

当上面的工作准备好了之后,我们运行自己写的Hadoop程序很简单:

        

?
1
$ hadoop  jar  /usr/mywind/hadoop/share/hadoop/mapreduce/testt.jar com.my.hadoop.test.main.TestHadoop   input  output

 

注意这是output文件夹名称不能重复哦,假如你执行了一次,在HDFS文件系统下面会自动生成一个output文件夹,第二次运行时,要么把output文件夹先删除($ hdfs dfs -rmr /user/a01513/output),要么把命令中的output改成其他名称如output1、output2等等。

如果看到以下输出结果,证明你的运行成功了:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
a01513@hadoop :~$ hadoop jar /usr/mywind/hadoop/share/hadoop/mapreduce/testt.jar                                                                              com.my.hadoop.test.main.TestHadoop input output
14/09/02 11:14:03 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0                                                                             :8032
14/09/02 11:14:04 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0                                                                             :8032
14/09/02 11:14:04 WARN mapreduce.JobSubmitter: Hadoop command-line option parsin                                                                             g not performed. Implement the Tool interface and execute your application with                                                                              ToolRunner to remedy this.
14/09/02 11:14:04 INFO mapred.FileInputFormat: Total input paths to process : 1
14/09/02 11:14:04 INFO mapreduce.JobSubmitter: number of splits:2
14/09/02 11:14:05 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_14                                                                             09386620927_0015
14/09/02 11:14:05 INFO impl.YarnClientImpl: Submitted application application_14                                                                             09386620927_0015
14/09/02 11:14:05 INFO mapreduce.Job: The url to track the job: http://hadoop:80                                                                             88/proxy/application_1409386620927_0015/
14/09/02 11:14:05 INFO mapreduce.Job: Running job: job_1409386620927_0015
14/09/02 11:14:12 INFO mapreduce.Job: Job job_1409386620927_0015 running in uber mode : false
14/09/02 11:14:12 INFO mapreduce.Job:  map 0% reduce 0%
14/09/02 11:14:21 INFO mapreduce.Job:  map 100% reduce 0%
14/09/02 11:14:28 INFO mapreduce.Job:  map 100% reduce 100%
14/09/02 11:14:28 INFO mapreduce.Job: Job job_1409386620927_0015 completed successfully
14/09/02 11:14:29 INFO mapreduce.Job: Counters: 49
        File System Counters
                FILE: Number of bytes read=105
                FILE: Number of bytes written=289816
                FILE: Number of read operations=0
                FILE: Number of large read operations=0
                FILE: Number of write operations=0
                HDFS: Number of bytes read=1638
                HDFS: Number of bytes written=10
                HDFS: Number of read operations=9
                HDFS: Number of large read operations=0
                HDFS: Number of write operations=2
        Job Counters
                Launched map tasks=2
                Launched reduce tasks=1
                Data-local map tasks=2
                Total time spent by all maps in occupied slots (ms)=14817
                Total time spent by all reduces in occupied slots (ms)=4500
                Total time spent by all map tasks (ms)=14817
                Total time spent by all reduce tasks (ms)=4500
                Total vcore-seconds taken by all map tasks=14817
                Total vcore-seconds taken by all reduce tasks=4500
                Total megabyte-seconds taken by all map tasks=15172608
                Total megabyte-seconds taken by all reduce tasks=4608000
        Map-Reduce Framework
                Map input records=9
                Map output records=9
                Map output bytes=81
                Map output materialized bytes=111
                Input split bytes=208
                Combine input records=0
                Combine output records=0
                Reduce input groups=1
                Reduce shuffle bytes=111
                Reduce input records=9
                Reduce output records=1
                Spilled Records=18
                Shuffled Maps =2
                Failed Shuffles=0
                Merged Map outputs=2
                GC time elapsed (ms)=115
                CPU time spent (ms)=1990
                Physical memory (bytes) snapshot=655314944
                Virtual memory (bytes) snapshot=2480295936
                Total committed heap usage (bytes)=466616320
        Shuffle Errors
                BAD_ID=0
                CONNECTION=0
                IO_ERROR=0
                WRONG_LENGTH=0
                WRONG_MAP=0
                WRONG_REDUCE=0
        File Input Format Counters
                Bytes Read=1430
        File Output Format Counters
                Bytes Written=10
a01513@hadoop :~$

 

我们可以到Eclipse查看输出的结果:

或者用命令行查看:

        

?
1
2
  
$ hdfs dfs -cat output/part-00000

 

假如你们发现运行后结果是为空的,可能到日志目录查找相应的log.info输出信息,log目录在:/usr/mywind/hadoop/logs/userlogs 下面。

 

好了,不太喜欢打字,以上就是整个过程了,欢迎大家来学习指正。

转载于:https://www.cnblogs.com/AloneSword/p/3955935.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/258221.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

百度地图JavaScript API覆盖物旋转时出现偏移

在项目中&#xff0c;调用百度地图JavaScript API&#xff0c;做覆盖物的旋转再添加到地图上&#xff0c;结果出现偏移了。 调试过程中的效果图&#xff1a; 发现图片的旋转并不是按车子的中心来的&#xff0c;而是之外的一个点。最后发现犯了一个很细节的错&#xff1a; <s…

英利1500伏光伏组件系列亮相美国

2016年4月21日&#xff0c;英利宣布其公用事业规模太阳能光伏生产线YGE-U1500系列亮相美国。 近日&#xff0c;美国保险商实验室&#xff08;UL&#xff09;对新型光伏板系列进行认证&#xff0c;可用于最大系统电压为1500伏的项目。 部署英利多晶硅YGE-U 1500光伏组件系列可为…

eclipse 关闭时progress information弹框_Spring开发环境搭建(Eclipse)

开发环境搭建&#xff0c;主要包含2部分:Java安装Eclipse安装为易于学习&#xff0c;我们只安装这2个部分&#xff0c;对于一般开发学习也足够了。如果你有其他要安装的&#xff0c;酌情添加。Java安装我们使用Java8&#xff1a;下载JDK32位下载x86版本&#xff0c;64位下载x64…

紫薯铜锣烧

材料&#xff1a; 全麦粉 三勺 鸡蛋 一只 毅力低脂纯牛奶 半盒 紫薯 蜂蜜 一勺 做法&#xff1a; 1. 鸡蛋打开&#xff0c;加入半盒牛奶&#xff0c;分三次加入三勺全麦面粉&#xff0c;每次加入都要上下搅拌&#xff0c;面粉要过筛&#xff0c;最后加入半勺蜂蜜 2.紫薯蒸熟压…

mysql 四大基础操作_mysql数据库的基本操作

mysql数据库的基本操作首先我们要把mysql装好mkdir chen/mount.cifs //192.168.100.23/LNMP chen/[rootlocalhost ~]# yum -y install \gcc \gcc-c \ncurses \ncurses-devel \bison \cmake[rootlocalhost ~]# useradd -s /sbin/nologin mysql[rootlocalhost ~]# cd chen/[rootl…

如何选择合适的监视器?

1、可视面积 在购买液晶监视器的时候&#xff0c;最先考虑的就是“面子”大小。对于液晶监视器来说&#xff0c;其面板的大小就是可视面积的大小&#xff0c;这一点与CRT监视器有些不同。同样参数规格的监视器&#xff0c;LCD要比CRT的可视面积更大一些&#xff0c;一般15英寸L…

2014年9月6日

第一题&#xff0c;神题不可做。 第二题&#xff0c;傻逼题裸裸的转移。。显而易见。 1 #include<iostream>2 #include<cstdio>3 #include<cstring>4 using namespace std;5 double a[20][20];6 double dp[2000010];7 int main()8 {9 // freopen("b.…

[Labview资料] labview事件结构学习

编程的主要目的是为了实现用户的某种功能&#xff0c;用户通过用鼠标、键盘、程序内部等触发某种程序动作&#xff0c;从而达到某种结果&#xff0c;这些操作都被称作为事件&#xff0c;LabVIEW中相应这些事件最常用的结构就是“事件结构”。事件结构内容丰富&#xff0c;基本上…

干不掉的钉钉:从哪来,往哪去?

作为阿里巴巴最有经验的产品经理之一&#xff0c;陈航习惯了“立项、开发、回到起点”的循环&#xff0c;但最近的一次“回到起点”&#xff0c;却让他记忆犹新。 那是在2014年5月26日&#xff0c;陈航带着一支不到10人的团队从阿里巴巴的西溪园区&#xff0c;搬进了位于杭州文…

《交互式程序设计 第2版》一3.6 关系比较

本节书摘来华章计算机《交互式程序设计 第2版》一书中的第3章 &#xff0c;第3.6节&#xff0c;Joshua Noble 著 毛顺兵 张婷婷 陈宇 沈鑫 任灿江 译更多章节内容可以访问云栖社区“华章计算机”公众号查看。 3.6 关系比较 与元组类型类似&#xff0c;关系类型也逃不过“比较运…

Undefined symbols for architecture i386:_OBJC_CLASS_$_xx, referenced from: 解决方法

多个人共同操作同一个项目或拷贝项目时&#xff0c;经常会出现类似这样的问题&#xff1a; Undefined symbols for architecture i386: "_OBJC_CLASS_$_xx文件名", referenced from: 下面是可能导致这类问题出现的原因及修改&#xff1a; 1.相关工程文件未导入 你可以…

mysql cmake错误_MySQL5.5安装出现CMake错误找不到CMakelists.txt原因-阿里云开发者社区...

今天虚拟机上测试安装 CentOS6.3 PHP5.4.8 MySQL5.5.28&#xff0c;结果捣鼓了半天 MySQL都没装上&#xff0c;老是CMake目录下找不到那个 lists 文件&#xff0c;郁闷的不行&#xff0c;最后发现问题所在&#xff0c;总结在下面(我是把软件包下载错了)&#xff1a;1. 检查参…

node.js Lordofpomelo点击登录(login)终端提示成功,页面不跳转无反应

firbug查看是因为webserver->public->js->lib->build->build.js文件出错 打开https://raw.githubusercontent.com/NetEase/lordofpomelo/master/web-server/public/js/lib/build/build.js复制替换build.js即可转载于:https://www.cnblogs.com/doujinya/p/396616…

LabVIEW设计模式系列——移位寄存器

标准&#xff1a;1、太多移位寄存器会导致连线太多&#xff0c;看起来凌乱&#xff0c;使用簇将变量打包&#xff0c;统一用一个移位寄存器&#xff0c;这样可以减少连线的麻烦2、如果每个变量都使用一个移位寄存器&#xff0c;没有一个名字是很难区分移位寄存器到底属于哪一个…

MySQL过滤相同binlog_通过Linux命令过滤出binlog中完整的SQL语句

DB&#xff1a;MySQL 5.6.16CentOS&#xff1a;CentOS release 6.3 (Final)当insert语句通过空格跨行输入的时候&#xff0c;如何提取完整的insert语句&#xff01;创建一个空表&#xff1a;mysql> create table yoon as select * from sakila.actor where 10;Query OK, 0 r…

●SQL编程

局部变量局部变量必须以 开头&#xff0c;而且必须先用DECLARE 命令说明后才可使用。使用SELECT 或SET 命令来设定变量的值。说明形式&#xff1a;DECLARE 变量名 变量类型 [ 变量名 变量类型]SELECT 局部变量 变量值SET 局部变量 变量值例&#xff1a;declare name varchar(2…

mysql to char 用法_postgresql 中的to_char()常用操作

postgresql中的to_char()用法和Oracle相比&#xff0c;多了一个参数。to_char(待转换值&#xff0c;转换格式);常用转换格式有2种&#xff1a;一个是写若干个0&#xff0c;如果待转换的值位数少于于你定义的转换格式位数&#xff0c;输出值会自动在左边补0&#xff0c;位数补齐…

mysql 数据库名称限制_mysql 数据库名称限制

mysql 数据库名称限制云服务器(Elastic Compute Service&#xff0c;简称ECS)是阿里云提供的性能卓越、稳定可靠、弹性扩展的IaaS(Infrastructure as a Service)级别云计算服务。云服务器ECS免去了您采购IT硬件的前期准备&#xff0c;让您像使用水、电、天然气等公共资源一样便…

Chrome 控制台指南

转自&#xff1a;http://blog.jobbole.com/76985/ Chrome的开发者工具已经强大到没朋友的地步了&#xff0c;特别是其功能丰富界面友好的console&#xff0c;使用得当可以有如下功效&#xff1a; 更高「逼格」更快「开发调试」更强「进阶级的Frontender」Bug无处遁形「Console大…

开发实战细节之——关于整型转换为字符串类型的性能与实现分析

细节决定成败&#xff0c;开发中往往从一些细节就可以看出一个程序员的开发水准&#xff0c;下面我就给大家分享一下开发中最最常见的int转换为String类型的方法及其性能解析。 一般大家最常用的方法有 方法一&#xff1a;String s1 String.valueOf(i); 方法二&#xff1a;St…