搭建 ELK 集群 kafka filebeat kibana logstash zookeeper elasticsearch

在这里插入图片描述
在这里插入图片描述

文章目录

          • 一、前置准备
            • 1. 部署总览
            • 2. 技术选型
            • 3. 全局配置
            • 4. 软件下载
            • 5. 操作声明
          • 二、jdk安装
            • 2.1. 上传
            • 2.2. 解压
            • 2.3. 设置环境变量
          • 三、zk集群
            • 3.1. 上传
            • 3.2. 解压
            • 3.3. 创建目录
            • 3.4. 编辑配置
            • 3.5. 添加配置
            • 3.6. myid
            • 3.8. 关闭防火墙
            • 3.9. 启动zk
            • 3.10. 监控状态
            • 3.11. 效果图
          • 四、kafka集群
            • 4.1. 上传
            • 4.2. 解压
            • 4.3. 数据目录
            • 4.4. 修改kafka的配置文件
            • 4.5. 依次启动kafka
          • 五、 验证集群
            • 5.1. 创建topic
            • 5.2. 启动生产者
            • 5.3. 启动消费者
            • 5.4. 生产消息
            • 5.5. 消费消息
          • 六、filebeat
            • 6.1.上传
            • 6.2. 解压
            • 6.3. 修改配置
            • 6.5. 启动filebeat
          • 七、logstash
            • 7.1. 上传
            • 7.2. 解压
            • 7.3. 新建配置
            • 7.4. 启动logstash
            • 7.5. 参数说明
          • 八、es集群
            • 8.1. 上传
            • 8.2. 解压
            • 8.3. 编辑配置
            • 8.4. 修改系统参数
            • 8.5. 启动es
            • 8.6. 监控日志
            • 8.7. 效果图
          • 九、node.js+镜像
            • 9.1. 下载node.js
            • 9.2. 解压
            • 9.3. 重命名
            • 9.4. 创建软连接
            • 9.5. 验证
            • 9.6. cnpm镜像
            • 9.7. cnpm软连接
          • 十、安装es-head插件
            • 10.1. 下载插件
            • 10.2. 解压
            • 10.3. 安装依赖
            • 10.4. 配置
            • 10.5. 启动插件
          • 十一、安装kibana
            • 11.1. 上传到app目录并解压
            • 11.2. 修改配置
            • 11.3. 启动kibana
            • 11.4. 验证elk是否安装成功
            • 11.5. 防火墙配置

一、前置准备
1. 部署总览
服务器部署组件开放端口
192.168.159.136filebeat
es
kafka
zookeeper
kibana
zookeeper:2181、2888、3888
kafka:9092
es:9200、9300、9100
kibana:5601
192.168.159.137es
kafka
zookeeper
logstash
zookeeper:2181、2888、3888
kafka:9092
es:9200、9300、9100
kibana:5601
192.168.159.138es
kafka
zookeeper
nodejs
zookeeper:2181、2888、3888
kafka:9092
es:9200、9300、9100
kibana:5601
2. 技术选型
软件版本
jdk1.8.0_301
zookeeper3.4.10
kafka2.12-2.1.1
filebeat6.7.2
logstash6.7.2
elasticsearch6.7.2
kibana6.7.2
filebeat6.7.2
3. 全局配置
# 136节点、137节点、138节点同时操作:# 1. 使用root用户进行登录
# 创建 /app目录
mkdir /app
如果/app已经存在忽略次操作# 2. 创建用户
useradd app
passwd  app# 密码:Elk123456
# 如果用户已经存在忽略次操作直接使用app用户登录即可 跳过3的第一个命令# 赋予权限:
chown app.app /app -R# 调整家目录:
vim /etc/passwd# 切换app用户
su - app

在这里插入图片描述

4. 软件下载

zookeeper-3.4.10.tar.gz

wget http://archive.apache.org/dist/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz

kafka_2.12-2.1.1.tgz

wget https://archive.apache.org/dist/kafka/2.1.1/kafka_2.12-2.1.1.tgz

filebeat-6.7.2-linux-x86_64.tar.gz

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.7.2-linux-x86_64.tar.gz

logstash-6.7.2.tar.gz

wget https://artifacts.elastic.co/downloads/logstash/logstash-6.7.2.tar.gz

elasticsearch-6.7.2.tar.gz

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.7.2.tar.gz

kibana-6.7.2-linux-x86_64.tar.gz

wget https://artifacts.elastic.co/downloads/kibana/kibana-6.7.2-linux-x86_64.tar.gz
5. 操作声明

默认使用app用户,如果使用root用户操作会进行说明。

二、jdk安装

136节点、137节点、138节点同时操作

2.1. 上传

上传jdk压缩包jdk-8u301-linux-x64.tar.gz到/app 目录下

2.2. 解压
cd /app
tar  -zxvf  jdk-8u301-linux-x64.tar.gz
2.3. 设置环境变量
  • 切换到root用户执行命令
su - root
  • 编辑文件
vi /etc/profile
  • 修改环境变量
export JAVA_HOME=/app/jdk1.8.0_301
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
  • 刷新环境变量
source /etc/profile
  • 切换app用户
su - app
  • 验证版本
java -version

------------------------------以下均使用app用户操作------------------------------

三、zk集群

136节点、137节点、138节点同时操作

3.1. 上传

上传Zookeeper安装包到/app目录

3.2. 解压
cd /app
tar -zxvf zookeeper-3.4.10.tar.gz
3.3. 创建目录
  • 创建data及logs目录
cd /app/zookeeper-3.4.10
mkdir dataDir
mkdir dataLogDir
3.4. 编辑配置
cd /app/zookeeper-3.4.10/conf
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg
3.5. 添加配置

修改内容为:(此处三台服务器配置相同),建议同时操作

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/app/zookeeper-3.4.10/data
dataLogDir=/app/zookeeper-3.4.10/data
clientPort=2181
server.1=192.168.159.136:2888:3888
server.2=192.168.159.137:2888:3888
server.3=192.168.159.138:2888:3888
3.6. myid
  • 第一台服务器中添加myid文件
echo "1" > /app/zookeeper-3.4.10/dataDir/ myid
  • 第二台服务器中添加myid文件
echo "2" > /app/zookeeper-3.4.10/dataDir/myid
  • 第三台服务器中添加myid文件
echo "3" > /app/zookeeper-3.4.10/dataDir/myid
3.8. 关闭防火墙
 systemctl stop firewalld
3.9. 启动zk

3个节点依次启动

cd /app/zookeeper-3.4.10/
bin/zkServer.sh start
3.10. 监控状态
bin/zkServer.sh status

zookeeper启动成功图片(图3.1)如下:无报错,Mode为leader或者follower都可以

3.11. 效果图

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

四、kafka集群
4.1. 上传

上传kafka安装包kafka_2.12-2.1.1.tgz到/app 目录下`

4.2. 解压
tar -zxvf kafka_2.12-2.1.1.tgz
4.3. 数据目录
  • 进入到kafka安装目录下,创建data文件夹
cd kafka_2.12-2.1.1/
mkdir data
4.4. 修改kafka的配置文件
vim config/server.properties
  • 136节点
#broker的id
broker.id=1
#绑定服务器ip
host.name=192.168.159.136
listeners=PLAINTEXT://192.168.159.136:9092
advertised.listeners=PLAINTEXT://192.168.159.136:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
#保存数据的目录路径
log.dirs=/app/kafka_2.12-2.1.1/data/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
#设置日志留存策略
log.retention.hours=168
log.retention.bytes=10737420000
#日志段大小
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
#配置zookeeper,ip表示zookeeper集群中各个节点ip
zookeeper.connect=192.168.159.136:2181,192.168.159.137:2181,192.168.159.138:2181
zookeeper.connection.timeout.ms=6000
message.max.byte=52428880
group.initial.rebalance.delay.ms=0
#设置删除topic
auto.create.topics.enable = false
delete.topic.enable=truelog.cleanup.policy=delete
log.segment.delete.delay.ms=0
  • 137节点
#broker的id
broker.id=2
#绑定服务器ip
host.name=192.168.159.137
listeners=PLAINTEXT://192.168.159.137:9092
advertised.listeners=PLAINTEXT://192.168.159.137:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
#保存数据的目录路径
log.dirs=/app/kafka_2.12-2.1.1/data/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
#设置日志留存策略
log.retention.hours=168
log.retention.bytes=10737420000
#日志段大小
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
#配置zookeeper,ip表示zookeeper集群中各个节点ip
zookeeper.connect=192.168.159.136:2181,192.168.159.137:2181,192.168.159.138:2181
zookeeper.connection.timeout.ms=6000
message.max.byte=52428880
group.initial.rebalance.delay.ms=0
#设置删除topic
auto.create.topics.enable = false
delete.topic.enable=truelog.cleanup.policy=delete
log.segment.delete.delay.ms=0
  • 138节点
#broker的id
broker.id=3
#绑定服务器ip
host.name=192.168.159.138
listeners=PLAINTEXT://192.168.159.138:9092
advertised.listeners=PLAINTEXT://192.168.159.138:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
#保存数据的目录路径
log.dirs=/app/kafka_2.12-2.1.1/data/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
#设置日志留存策略
log.retention.hours=168
log.retention.bytes=10737420000
#日志段大小
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
#配置zookeeper,ip表示zookeeper集群中各个节点ip
zookeeper.connect=192.168.159.136:2181,192.168.159.137:2181,192.168.159.138:2181
zookeeper.connection.timeout.ms=6000
message.max.byte=52428880
group.initial.rebalance.delay.ms=0
#设置删除topic
auto.create.topics.enable = false
delete.topic.enable=truelog.cleanup.policy=delete
log.segment.delete.delay.ms=0
4.5. 依次启动kafka
  • 136/137/138节点依次启动
cd /app/kafka_2.12-2.1.1/
nohup bin/kafka-server-start.sh config/server.properties &

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

五、 验证集群

验证集群是否安装成功

5.1. 创建topic

在其中一个节点上创建一个topic:

  • 这里演示采用136节点,创建一个topic:
cd /app/kafka_2.12-2.1.1/
bin/kafka-topics.sh --zookeeper 192.168.159.136:2181,192.168.159.137:2181,192.168.159.138:2181 --create --topic test2 --partitions 3 --replication-factor 1

在这里插入图片描述

5.2. 启动生产者
  • 在其中一个节点上启动kafka生产者
    这里演示采用136节点:
cd /app/kafka_2.12-2.1.1/
bin/kafka-console-producer.sh --broker-list 192.168.159.136:9092 --topic test2

在这里插入图片描述

5.3. 启动消费者
  • 在集群其他的节点上启动消费者,这里演示采用137和138节点:

137节点:

cd /app/kafka_2.12-2.1.1/
bin/kafka-console-consumer.sh --bootstrap-server 192.168.159.137:9092 --topic test2

在这里插入图片描述
138节点:

cd /app/kafka_2.12-2.1.1/
bin/kafka-console-consumer.sh --bootstrap-server 192.168.159.138:9092 --topic test2

在这里插入图片描述

5.4. 生产消息

Kafka生产者发送一条消息,看能否在消费端能够接收到消息,如果都能接收到消息表示kafka集群可用。
这里演示场景:136节点 作为生产者发送消息 137节点和138节点作为消费者消费消息
在这里插入图片描述

5.5. 消费消息

137节点作为消费者消费消息
在这里插入图片描述
138节点作为消费者消费消息
在这里插入图片描述
从以上截图中,可以看出136节点作为消费者发送消息“send msg 123456”,137节点和138节点作为消费者可以正常接收消息。

六、filebeat

登录136节点,使用app用户操作

6.1.上传
  • filebeat-6.7.2-linux-x86_64.tar.gz文件,并上传app
6.2. 解压
cd /app
tar -zxvf filebeat-6.7.2-linux-x86_64.tar.gz
6.3. 修改配置
  • 修改filebeat.yml配置文件如下
vim /app/filebeat-6.7.2-linux-x86_64/filebeat.yml
  • 修改path路径
/app/test.log

在这里插入图片描述

  • Elasticsearch output这里的配置需要修改
    修改前:
    在这里插入图片描述
    修改后:
    在这里插入图片描述
6.5. 启动filebeat
nohup /app/filebeat-6.7.2-linux-x86_64/filebeat -e -c /app/filebeat-6.7.2-linux-x86_64/filebeat.yml &

在这里插入图片描述

七、logstash
7.1. 上传

下载logstash-6.7.2.tar.gz文件,并上传app目录

7.2. 解压
tar -zxvf logstash-6.7.2.tar.gz
7.3. 新建配置
  • 新建config目录下配置文件kafkaInput_esOutPut.conf
vim /app/logstash-6.7.2/config/kafkaInput_esOutPut.conf

内容如下:

input {kafka {bootstrap_servers => "192.168.159.136:9092,192.168.159.137:9092,192.168.159.138:9092"group_id => ["elk"]topics => ["app-log"]auto_offset_reset => "latest"consumer_threads => 5decorate_events => true}
}
output {stdout {codec => rubydebug}elasticsearch {hosts => ["192.168.159.136:9200,192.168.159.137:9200,192.168.159.138:9200"]index => "kafka-logs-%{+YYYY-MM-dd}"flush_size => 20000idle_flush_time => 10sniffing => truetemplate_overwrite => true }
}
7.4. 启动logstash
cd /app/logstash-6.7.2
nohup bin/logstash -f /config/kafkaInput_esOutPut.conf --config.reload.automatic &
7.5. 参数说明

--config.reload.automatic 选项的意思是启用自动配置加载,以至于每次修改完配置文件以后无需停止然后重启Logstash
查看进程是否启动成功

ps -ps |grep logstash
八、es集群
8.1. 上传

上传到/app目录

8.2. 解压
cd /app
tar -zxvf elasticsearch-6.7.2.tar.gz
8.3. 编辑配置
vim  /app/elasticsearch-6.7.2/config/elasticsearch.yml
  • 修改配置文件config/elasticsearch.yml
  • 136节点
# ======================== Elasticsearch Configuration =========================
cluster.name: es-application
node.name: node-1
path.data: /app/elasticsearch-6.7.2/data
path.logs: /app/elasticsearch-6.7.2/logs
network.host: 0.0.0.0
http.port: 9200
discovery.zen.ping.unicast.hosts: ["192.168.159.136:9300", "192.168.159.137:9300","192.168.159.138:9300"]
discovery.zen.minimum_master_nodes: 2
http.cors.enabled: true
http.cors.allow-origin: "*"
http.cors.allow-methods: OPTIONS, HEAD, GET, POST, PUT, DELETE

在这里插入图片描述

  • 137节点
# ======================== Elasticsearch Configuration =========================
cluster.name: es-application
node.name: node-2
path.data: /app/elasticsearch-6.7.2/data
path.logs: /app/elasticsearch-6.7.2/logs
network.host: 0.0.0.0
http.port: 9200
discovery.zen.ping.unicast.hosts: ["192.168.159.136:9300", "192.168.159.137:9300","192.168.159.138:9300"]
discovery.zen.minimum_master_nodes: 2
http.cors.enabled: true
http.cors.allow-origin: "*"
http.cors.allow-methods: OPTIONS, HEAD, GET, POST, PUT, DELETE

在这里插入图片描述

  • 138节点
# ======================== Elasticsearch Configuration =========================
cluster.name: es-application
node.name: node-3
path.data: /app/elasticsearch-6.7.2/data
path.logs: /app/elasticsearch-6.7.2/logs
network.host: 0.0.0.0
http.port: 9200
discovery.zen.ping.unicast.hosts: ["192.168.159.136:9300", "192.168.159.137:9300","192.168.159.138:9300"]
discovery.zen.minimum_master_nodes: 2
http.cors.enabled: true
http.cors.allow-origin: "*"
http.cors.allow-methods: OPTIONS, HEAD, GET, POST, PUT, DELETE

在这里插入图片描述

8.4. 修改系统参数

3个节点同时操作,切换root用户修改系统参数,执行如下命令

su - root
  • 第一处
echo "vm.max_map_count=655360" >> /etc/sysctl.conf && /sbin/sysctl -p

在这里插入图片描述

  • 第二处
vim /etc/security/limits.conf
* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096

在这里插入图片描述

8.5. 启动es

3给节点依次启动es

su - app
cd /app/elasticsearch-6.7.2
bin/elasticsearch -d
8.6. 监控日志
tail -f logs/es-application.log 
8.7. 效果图

http://192.168.159.136:9200/
http://192.168.159.137:9200/
http://192.168.159.138:9200/
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
http://192.168.159.136:9200/_cat/health
在这里插入图片描述

九、node.js+镜像

登录138节点,使用root用户操作,官网下载node.js

9.1. 下载node.js

https://nodejs.org/en/download/
在这里插入图片描述

  • 下载
 wget https://nodejs.org/dist/v16.13.1/node-v16.13.1-linux-x64.tar.xz

在这里插入图片描述

9.2. 解压
 tar -xvf node-v16.13.1-linux-x64.tar.xz 
9.3. 重命名
 mv node-v16.13.1-linux-x64 nodejs
9.4. 创建软连接
 ln -s /app/nodejs/bin/node /usr/bin/nodeln -s /app/nodejs/bin/npm /usr/bin/npm
9.5. 验证

验证node.js是否安装成功

 node -v

在这里插入图片描述

9.6. cnpm镜像
  • 使用cnpm操作
npm install -g cnpm --register=https://register.npm.taobao.org
9.7. cnpm软连接
ln -s /app/nodejs/bin/cnpm /usr/bin/cnpm
十、安装es-head插件
10.1. 下载插件
10.2. 解压
unzip elasticsearch-head-master.zip
10.3. 安装依赖
cd elasticsearch-head-master
cnpm install
10.4. 配置
  • 现在head插件还无法连接到es,需要修改以下配置文件
vim /app/elasticsearch-head-master/Gruntfile.js

在这里插入图片描述

10.5. 启动插件
cd /app/elasticsearch-head-master目录下
npm run start

在这里插入图片描述
安装完成,输入对应地址显示如下结果:

http://192.168.159.138:9100/
http://192.168.159.138:9200/
在这里插入图片描述
在这里插入图片描述

十一、安装kibana

登录136节点,使用app用户操作

11.1. 上传到app目录并解压
 tar -zxvf kibana-6.7.2-linux-x86_64.tar.gz
11.2. 修改配置
  • 修改config/kibana.yml配置文件
  cd /appvim kibana-6.7.2-linux-x86_64/config/kibana.yml

末尾添加如下配置:
server.host为当前机器ip

server.port: 5601
server.host: "192.168.159.136"
elasticsearch.hosts: ["http://192.168.159.136:9200","http://192.168.159.137:9200","http://192.168.159.138:9200"]

在这里插入图片描述

11.3. 启动kibana

切换到bin目录启动nohup ./kibana &

cd /app/kibana-6.7.2-linux-x86_64/
nohup bin/kibana &

http://192.168.159.136:5601/app/kibana
在这里插入图片描述
在这里插入图片描述

11.4. 验证elk是否安装成功

咱们在logstash的配置文件中配置的topic是app-log

  • 创建topic
cd /app/kafka_2.12-2.1.1/bin/
./kafka-console-consumer.sh --bootstrap-server 192.168.159.138:9092 --topic app-log
  • 创建消费组
  • 137节点:
cd /app/kafka_2.12-2.1.1/bin/
./kafka-console-consumer.sh --bootstrap-server 192.168.159.138:9092 --topic app-log --consumer-property group.id=elk

在这里插入图片描述

  • 138节点:
cd /app/kafka_2.12-2.1.1/bin/
./kafka-console-consumer.sh --bootstrap-server 192.168.159.138:9092 --topic app-log --consumer-property group.id=elk

在这里插入图片描述

  • 测试
  • 1.往136节点/app/test.log文件写入一行数字,之后查看es中是否可以查询到
cd /app
echo "123456789033333" >> test.log
cat test.log

在这里插入图片描述

/app/kafka_2.12-2.1.1/bin/kafka-consumer-groups.sh --bootstrap-server 192.168.159.138:9092 --group elk --describe 

在这里插入图片描述

  • 2.es查询到了
    在这里插入图片描述
  • 3.kibana也成功抓取到了
    在这里插入图片描述
11.5. 防火墙配置
  • 136/137/138节点:
firewall-cmd --zone=public --add-port=2181/tcp --permanent
firewall-cmd --zone=public --add-port=2888/tcp --permanent
firewall-cmd --zone=public --add-port=3888/tcp --permanent
firewall-cmd --zone=public --add-port=9092/tcp --permanent
firewall-cmd --zone=public --add-port=9100/tcp --permanent
firewall-cmd --zone=public --add-port=9200/tcp --permanent
firewall-cmd --zone=public --add-port=9300/tcp --permanent
firewall-cmd --zone=public --add-port=5601/tcp --permanent
firewall-cmd --reload

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/516413.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

超越软件上云 讲述每天1亿公里行驶背后的大生意

云栖号案例库:【点击查看更多上云案例】 不知道怎么上云?看云栖号案例库,了解不同行业不同发展阶段的上云方案,助力你上云决策! 大家都听过物联网,它联接我们身边的所有物体,包括汽车车辆、家用…

Excel 数据导入到Access数据库,报错“找不到可安装的ISAM”的解决办法

目录 1. 报错1.1 报错信息1.2 报错原因2. 解决方案AppAccess.DoCmd.TransferSpreadsheet 方法 1. 报错 1.1 报错信息 本文源起在Excel VBA开发中,Access对象采用后期绑定后,出现了报错 下面是我的后期绑定数据库对象的代码 后期绑定数据库对象 Dim AppAccess As Object Set…

贵广网络跨界转型 实现智慧城市的平台创新

云栖号案例库:【点击查看更多上云案例】 不知道怎么上云?看云栖号案例库,了解不同行业不同发展阶段的上云方案,助力你上云决策! 随着互联网媒体的强势崛起、IPTV和OTT的快速普及(2018年全国IPTV用户已达1.4…

无公网域名,使用ngrok开启反向代理,实现公网域名访问本地项目

文章目录1. 下载2. 使用3. 创建项目4. 本地访问5. 域名访问1. 下载 https://ngrok.com/download 根据不同的系统环境下载压缩包 2. 使用 windows 环境 cd ngrok-stable-windows-amd64 使用命令窗口启动创建账号认证 ngrok.exe authtoken token格式:ngrok.exe h…

连续两年入选Gartner公共云容器,阿里云在边缘容器方面做了什么?

最近,Gartner发布了2020年公共云容器报告,阿里云连续两年成为唯一入选的中国企业。报告显示,阿里云容器服务在中国市场表现强劲,产品形态丰富,在 Serverless 容器、服务网格、安全沙箱容器、混合云和边缘等领域&#x…

VMware支持客户构建多云未来

全球领先的企业软件创新者VMware(NYSE:VMW) 今天在VMworld 2020大会上发布创新技术,帮助客户在任意云上构建、运行、管理、连接和保护任何应用。目前,已有超过1,500万个企业工作负载运行在VMware云环境中,并…

前端_网页编程 Form表单与模板引擎(上)

目录 一、form表单的基本使用1. 什么是表单?2. 表单的组成部分3. < form>标签的基本属性3.1 action3.2 target3.3 method3.4 enctype4. 表单的同步提交及缺点4.1 什么是表单的同步提交4.2 表单同步提交的缺点4.3 如何解决表单同步提交的缺点二、通过Ajax提交表单数据1.监…

500 OOPS: vsftpd: both local and anonymous access disabled

摘要&#xff1a;FTP连接时&#xff0c;提示错误信息&#xff1a;500 OOPS: vsftpd: both local and anonymous access disabled! FTP连接时&#xff0c;提示错误信息&#xff1a; 500 OOPS: vsftpd: both local and anonymous access disabled! 原因分析&#xff0c;vsftpd的配…

性能为MySQL 10倍!阿里云推出云原生数据仓库AnalyticDB基础版

云原生数据仓库AnalyticDB基础版来了&#xff01; 点我看直播回放惊喜优惠&#xff01;体验10元3个月 发布会PPT资料放送&#xff08;点击可直接查看哦&#xff09; ADB基础版&#xff1a;云原生MySQL敏捷数仓ADB for MySQL 基础版技术解密基于ADB for MySQL基础版构建实时数…

VMware为全球数字化基础架构提供原生安全

全球领先的企业软件创新者VMware&#xff08;NYSE&#xff1a;VMW&#xff09;在VMworld 2020大会上宣布了一系列创新技术&#xff0c;为全球数字化基础架构提供原生安全。随着企业加速采用云构建未来就绪的弹性数字化基础架构&#xff0c;上述解决方案旨在提升公有云和私有云、…

在DataWorks标准模式下统计个人账号使用资源情况

背景 在使用MaxCompute的时候通常情况下&#xff0c;用户会通过Information Schema的task_history视图表来分析具体某个账号执行的SQL任务情况&#xff0c;来做到SQL成本分摊或SQL的时间成本优化。但大多数用户通过DataWorks标准模式下使用MaxCompute&#xff0c;这样在MaxComp…

前端_网页编程 Form表单与模板引擎(中)

目录 ... ...(续上篇)四、模板引擎的基本概念1.定义2. 优点五、art-template模板引擎1.art-template模板引擎介绍2. art-template的安装3. art-template模板引擎的基本使用3.1 使用传统方式渲染UI结构3.2 art-template的使用步骤4. art-template语法4.1 输出4.2 原文输出4.3 …

vsftpd FTP Server ‘ls.c‘ 远程拒绝服务漏洞(CVE-2011-0762)漏洞修复方案

以前如果安装过只是为了升级&#xff0c;需要先卸载&#xff0c;在安装停止现有的vsftpd服务 service vsftpd stop在线卸载vsftpd yum remove -y vsftpd删除以前的目录 rm -rf /etc/vsftpd -R软连接 ln -s /lib64/libcap.so.2.16 /usr/lib/libcap.so下载vsftpd、解压 cd /…

Mysql5.7使用DTS增量同步数据到MaxCompute

背景&#xff1a;一些客户反馈&#xff0c;增量同步数据到MaxCompute按照全天的数据做增量数据同步数据量太大&#xff0c;且不使用按天的增量同步数据&#xff0c;进行在MaxCompute上进行数据处理得出增量数据对于delete的相关数据不能做到很好的支持&#xff0c;在次给大家一…

VMware发布虚拟云网络创新技术,连接和保护分布式多云企业

全球领先的企业软件创新者VMware&#xff08;NYSE&#xff1a;VMW&#xff09;本周在VMworld 2020大会上发布多项虚拟云网络创新&#xff0c;将帮助客户构建现代化网络, 更好地支持当前和未来业务计划。凭借VMware不断升级的网络和安全产品组合&#xff0c;客户将更有效地管理向…

前端_网页编程 Form表单与模板引擎(下)

目录 续上一篇6. 模板引擎的实现原理6.1 正则与字符串操作6.1.1 基本语法6.1.2 分组6.1.3 字符串的replace函数6.1.4 多次replace6.1.5 使用while循环replace6.1.6 replace替换为真值6.2 实现简易的模板引擎6.2.1 实现步骤6.2.2 定义模板结构6.2.3 预调用模板引擎6.2.4 封装 te…

MaxCompute问答整理之2020-03月

本文是基于本人对MaxCompute产品的学习进度&#xff0c;再结合开发者社区里面的一些问题&#xff0c;进而整理成文。希望对大家有所帮助。 问题一、在 MaxCompute SQL执行过程中&#xff0c;报错Table xx has n columns&#xff0c; but query has m columns如何处理&#xff…

vsftpd 源码安装 linux/redhat

以前如果安装过只是为了升级&#xff0c;需要先卸载&#xff0c;在安装停止现有的vsftpd服务 service vsftpd stop在线卸载vsftpd yum remove -y vsftpd删除以前的目录 rm -rf /etc/vsftpd -R软连接 ln -s /lib64/libcap.so.2.16 /usr/lib/libcap.so下载vsftpd、解压 cd /…

攀钢告诉你:钢铁是怎样用AI炼成的?

云栖号案例库&#xff1a;【点击查看更多上云案例】 不知道怎么上云&#xff1f;看云栖号案例库&#xff0c;了解不同行业不同发展阶段的上云方案&#xff0c;助力你上云决策&#xff01; 2018年以来&#xff0c;百货企业仍处在洗牌激荡时期&#xff0c;2019年上半年更不乐观。…

VMware发布面向未来的员工工作解决方案,满足分散办公需求

全球领先的企业软件创新者VMware&#xff08;NYSE&#xff1a;VMW&#xff09; 本周在VMworld 2020大会上发布VMware Future-Ready Workforce解决方案&#xff0c;提供卓越的员工办公体验和端到端零信任安全控制&#xff0c;同时简化管理。通过结合VMware安全访问服务边缘&…