MongoDB集群的介绍与搭建

MongoDB集群的介绍与搭建

一.MongoDB集群的介绍

注意:Mongodb是一个比较流行的NoSQL数据库,它的存储方式是文档式存储,并不是Key-Value形式;

1.1集群的优势和特性

MongoDB集群的优势主要体现在以下几个方面:

(1)高可用性

MongoDB集群支持主从复制和故障转移机制,这确保了数据的高可用性和冗余性。当主节点出现故障时,集群可以自动切换到从节点,保证系统的持续运行。这种故障转移能力对于维护系统的稳定性和可靠性至关重要。

(2)扩展性

MongoDB集群具有出色的扩展性,可以通过水平扩展来增加系统的处理能力和存储容量。随着数据量的增加和访问压力的增大,只需简单地添加新的节点,即可轻松应对。这种扩展性使得MongoDB集群能够适用于各种规模的数据存储和处理需求。

(3)数据分片

MongoDB集群支持数据分片功能,可以将数据划分为多个分片,并部署在不同的节点上。这种数据分片机制不仅提高了系统的读写性能,还提供了更大的存储容量。MongoDB能够根据数据的分布情况,自动将查询请求分发到相应的分片上进行处理,从而进一步优化了系统的性能。

(4)弹性伸缩

MongoDB集群具有弹性伸缩的能力,可以根据系统的负载情况进行自动调整。当负载过高时,可以添加更多的节点来分担压力;当负载较低时,可以减少节点数量以节省资源。这种弹性伸缩机制使得MongoDB集群能够灵活地应对各种负载变化,保持系统的稳定性和性能。

(5)灵活性

MongoDB集群提供了灵活的数据模型和查询语言,可以存储和处理各种类型的数据。它支持文档型、关系型和图形型数据,并提供了强大的查询和聚合功能,方便用户对数据进行分析和处理。这种灵活性使得MongoDB集群能够适用于各种复杂的数据存储和处理场景。

(6)数据安全与容灾

MongoDB集群通过数据冗余和备份机制,提供了数据的安全性和容灾功能。即使某个节点出现故障,其他节点仍然可以正常运行,并保证数据的一致性和完整性。此外,MongoDB还支持跨地域的数据复制和容灾部署,进一步提高了数据的安全性和可靠性。

然而,也需要注意到MongoDB集群的一些潜在挑战,如配置复杂性、成本较高以及数据一致性等问题。在实际应用中,需要根据具体的需求和资源情况来选择合适的集群类型和配置方案,并进行合理的优化和维护以确保系统的性能和稳定性。

综上所述,MongoDB集群具有高可用性、扩展性、数据分片、弹性伸缩、灵活性和数据安全与容灾等优势,适用于各种大规模数据存储和处理的场景。

二.MongoDB集群的搭建

主要介绍三种集群方式的搭建过程:

2.1Replica Set(副本集)方式

主节点-备节点-仲裁节点

是集群当中包含了多份数据,保证主节点挂掉了,备节点能继续提供数据服务,提供的前提就是数据需要和主节点一致。

其中,Mongodb(M)表示主节点,Mongodb(S)表示备节点,Mongodb(A)表示仲裁节点。主备节点存储数据,仲裁节点不存储数据。客户端同时连接主节点与备节点,不连接仲裁节点。

默认设置下,主节点提供所有增删查改服务,备节点不提供任何服务。但是可以通过设置使备节点提供查询服务,这样就可以减少主节点的压力,当客户端进行数据查询时,请求自动转到备节点上。这个设置叫做Read Preference Modes,同时Java客户端提供了简单的配置方式,可以不必直接对数据库进行操作。

仲裁节点是一种特殊的节点,它本身并不存储数据,主要的作用是决定哪一个备节点在主节点挂掉之后提升为主节点,所以客户端不需要连接此节点。这里虽然只有一个备节点,但是仍然需要一个仲裁节点来提升备节点级别。我开始也不相信必须要有仲裁节点,但是自己也试过没仲裁节点的话,主节点挂了备节点还是备节点,所以咱们还是需要它的。

(1)建立数据文件夹

一般情况下不会把数据目录建立在mongodb的解压目录下,不过这里方便起见,就建在mongodb解压目录下吧。

mkdir -p /mongodb/data/master 
mkdir -p /mongodb/data/slaver 
mkdir -p /mongodb/data/arbiter  
#三个目录分别对应主,备,仲裁节点

(2)建立配置文件

由于配置比较多,所以我们将配置写到文件里。

#master.conf
dbpath=/mongodb/data/master
logpath=/mongodb/log/master.log
pidfilepath=/mongodb/master.pid
directoryperdb=true
logappend=true
replSet=testrs
bind_ip=10.10.148.130
port=27017
oplogSize=10000
fork=true
noprealloc=true
#slaver.conf
dbpath=/mongodb/data/slaver
logpath=/mongodb/log/slaver.log
pidfilepath=/mongodb/slaver.pid
directoryperdb=true
logappend=true
replSet=testrs
bind_ip=10.10.148.131
port=27017
oplogSize=10000
fork=true
noprealloc=true
#arbiter.conf
dbpath=/mongodb/data/arbiter
logpath=/mongodb/log/arbiter.log
pidfilepath=/mongodb/arbiter.pid
directoryperdb=true
logappend=true
replSet=testrs
bind_ip=10.10.148.132
port=27017
oplogSize=10000
fork=true
noprealloc=true

参数解读:

dbpath:数据存放目录

port:mongodb进程所使用的端口号,默认为27017

logpath:日志存放路径、bind_ip:mongodb所绑定的ip地址

oplogSize:mongodb操作日志文件的最大大小。单位为Mb,默认为硬盘剩余空间的5%

pidfilepath:进程文件,方便停止mongodb

fork:以后台方式运行进程

directoryperdb:为每一个数据库按照数据库名建立文件夹存放

noprealloc:不预先分配存储、replSet:replica set的名字

logappend:以追加的方式记录日志

(3)启动mongodb

进入每个mongodb节点的bin目录下

./monood -f master.conf
./mongod -f slaver.conf
./mongod -f arbiter.conf

(4)配置主,备,仲裁节点

可以通过客户端连接mongodb,也可以直接在三个节点中选择一个连接mongodb。

./mongo 10.10.148.130:27017   #ip和port是某个节点的地址
>use admin
>cfg={ _id:"testrs", members:[ {_id:0,host:'10.10.148.130:27017',priority:2}, {_id:1,host:'10.10.148.131:27017',priority:1}, 
{_id:2,host:'10.10.148.132:27017',arbiterOnly:true}] };
>rs.initiate(cfg)             #使配置生效

cfg是可以任意的名字,当然最好不要是mongodb的关键字,conf,config都可以。最外层的_id表示replica set的名字,members里包含的是所有节点的地址以及优先级。优先级最高的即成为主节点,即这里的10.10.148.130:27017。特别注意的是,对于仲裁节点,需要有个特别的配置——arbiterOnly:true。这个千万不能少了,不然主备模式就不能生效。
      配置的生效时间根据不同的机器配置会有长有短,配置不错的话基本上十几秒内就能生效,有的配置需要一两分钟。如果生效了,执行rs.status()命令会看到如下信息:

{"set" : "testrs","date" : ISODate("2013-01-05T02:44:43Z"),"myState" : 1,"members" : [{"_id" : 0,"name" : "10.10.148.130:27017","health" : 1,"state" : 1,"stateStr" : "PRIMARY","uptime" : 200,"optime" : Timestamp(1357285565000, 1),"optimeDate" : ISODate("2013-01-04T07:46:05Z"),"self" : true},{"_id" : 1,"name" : "10.10.148.131:27017","health" : 1,"state" : 2,"stateStr" : "SECONDARY","uptime" : 200,"optime" : Timestamp(1357285565000, 1),"optimeDate" : ISODate("2013-01-04T07:46:05Z"),"lastHeartbeat" : ISODate("2013-01-05T02:44:42Z"),"pingMs" : 0},{"_id" : 2,"name" : "10.10.148.132:27017","health" : 1,"state" : 7,"stateStr" : "ARBITER","uptime" : 200,"lastHeartbeat" : ISODate("2013-01-05T02:44:42Z"),"pingMs" : 0}],"ok" : 1
}

如果配置正在生效,其中会包含如下信息:

"stateStr" : "RECOVERING"

同时可以查看对应节点的日志,发现正在等待别的节点生效或者正在分配数据文件。
       现在基本上已经完成了集群的所有搭建工作。至于测试工作,可以留给大家自己试试。一个是往主节点插入数据,能从备节点查到之前插入的数据(查询备节点可能会遇到某个问题,可以自己去网上查查看)。二是停掉主节点,备节点能变成主节点提供服务。三是恢复主节点,备节点也能恢复其备的角色,而不是继续充当主的角色。二和三都可以通过rs.status()命令实时查看集群的变化。

2.2Sharding方式

主节点-备节点-仲裁节点-路由节点

和Replica Set类似,都需要一个仲裁节点,但是Sharding还需要配置节点和路由节点。就三种集群搭建方式来说,这种是最复杂的。

(1)启动数据节点

./mongod --fork --dbpath ../data/set1/ --logpath ../log/set1.log --replSet test #192.168.4.43
./mongod --fork --dbpath ../data/set2/ --logpath ../log/set2.log --replSet test #192.168.4.44
./mongod --fork --dbpath ../data/set3/ --logpath ../log/set3.log --replSet test #192.168.4.45 决策 不存储数据

(2)启动配置节点

./mongod --configsvr --dbpath ../config/set1/ --port 20001 --fork --logpath ../log/conf1.log #192.168.4.30
./mongod --configsvr --dbpath ../config/set2/ --port 20002 --fork --logpath ../log/conf2.log #192.168.4.31

(3)启动路由节点

./mongos --configdb 192.168.4.30:20001,192.168.4.31:20002 --port 27017 --fork --logpath ../log/root.log #192.168.4.29

这里我们没有用配置文件的方式启动,其中的参数意义大家应该都明白。一般来说一个数据节点对应一个配置节点,仲裁节点则不需要对应的配置节点。注意在启动路由节点时,要将配置节点地址写入到启动命令里。

(4)配置Replica Set

       这里可能会有点奇怪为什么Sharding会需要配置Replica Set。其实想想也能明白,多个节点的数据肯定是相关联的,如果不配一个Replica Set,怎么标识是同一个集群的呢。这也是人家mongodb的规定,咱们还是遵守吧。配置方式和之前所说的一样,定一个cfg,然后初始化配置。

./mongo 192.168.4.43:27017   #ip和port是某个节点的地址
>use admin
>cfg={ _id:"testrs", members:[ {_id:0,host:'192.168.4.43:27017',priority:2}, {_id:1,host:'192.168.4.44:27017',priority:1}, 
{_id:2,host:'192.168.4.45:27017',arbiterOnly:true}] };
>rs.initiate(cfg)             #使配置生效

(5) 配置Sharding

./mongo 192.168.4.29:27017   #这里必须连接路由节点
>sh.addShard("test/192.168.4.43:27017") #test表示replica set的名字 当把主节点添加到shard以后,会自动找到set里的主,备,决策节点
>db.runCommand({enableSharding:"diameter_test"})    #diameter_test is database name
>db.runCommand( { shardCollection: "diameter_test.dcca_dccr_test",key:{"__avpSessionId":1}})

第一个命令很容易理解,第二个命令是对需要进行Sharding的数据库进行配置,第三个命令是对需要进行Sharding的Collection进行配置,这里的dcca_dccr_test即为Collection的名字。另外还有个key,这个是比较关键的东西,对于查询效率会有很大的影响,具体可以查看 Shard Key Overview
       到这里Sharding也已经搭建完成了,以上只是最简单的搭建方式,其中某些配置仍然使用的是默认配置。如果设置不当,会导致效率异常低下,所以建议大家多看看官方文档再进行默认配置的修改。

2.3Master-Slave方式

主节点-备节点

这个是最简答的集群搭建,不过准确说也不能算是集群,只能说是主备。并且官方已经不推荐这种方式,所以在这里只是简单的介绍下吧,搭建方式也相对简单。

./mongod --master --dbpath /data/masterdb/      #主节点./mongod --slave --source <masterip:masterport> --dbpath /data/slavedb/     备节点

基本上只要在主节点和备节点上分别执行这两条命令,Master-Slaver就算搭建完成了。我没有试过主节点挂掉后备节点是否能变成主节点,不过既然已经不推荐了,大家就没必要去使用了。

 三.自己亲测过程

3.1.准备工作

因为我这里的数据量不大,所以一般使用带仲裁节点的集群即可,没必要使用带有路由节点的;

(1)环境准备(三台Centos7的虚拟机):192.168.32.215 / 192.168.32.216 / 192.168.32.217

(2)机器分配:215为master节点 , 217为slave节点 , 216为仲裁节点

(3)安装包下载:使用wget来下载,版本为4.4.5,想要其他的版本自己可以更换:

wget https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.4.5.tgz

将安装包用scp命令传输到另外两台上; 

3.2.进行配置

(1)目录准备

三台机器的目录尽量一致,我这里都存放解压后的目录为/opt/hadoop

创建目录:

215机器:

#在opt下创建hadoop
mkdir /opt/hadoop
#将安装包解压到hadoop下
tar -zxvf mongodb-linux-x86_64-rhel70-4.4.5.tgz  -C /opt/hadoop/
#解压的目录形式为:/opt/hadoop/mongo4.4
#我这里修改为了:/opt/hadoop/mongodb4.4为了方便,然后就在mongodb4.4里面执行下面的操作#数据存文的目录
mkdir -p data/master 
#日志目录
mkdir logs  
#配置目录
mkdir conf  
cd logs 
#日志文件
touch master.log 
cd conf
#配置文件
touch mongodb.conf 

如同下面得图中表现:

217机器:

同上述节点:

mkdir -p data/slave
mkdir logs
mkdir conf
cd logs
touch slave.log
cd conf
touch mongodb.conf

216机器:

同上述节点:

mkdir -p data/arbite
mkdir logs
mkdir conf
cd logs
touch arbite.log
cd conf
touch mongodb.conf

(2)编辑配置文件

215节点(Master):

编辑mongodb.conf

#master配置
#数据存放路径
dbpath=/opt/hadoop/mongodb4.4/data/master  
#日志路径
logpath=/opt/hadoop/mongodb4.4/logs/master.log 
#以追加的方式记录日志 
logappend=true
#mongoDB进程所绑定的ip地址
bind_ip=192.168.32.215
#端口号,默认端口号为27017  
port=27017
#以后台方式运行进程 
fork=true 
#4.33版本后已经取消
#noprealloc=true 
#集群名称
replSet=test  

217节点(Slave):

编辑mongodb.conf

#slave配置
dbpath=/opt/hadoop/mongodb4.4/data/slave
logpath=/opt/hadoop/mongodb4.4/logs/slave.log
logappend=true
bind_ip=192.168.32.217
port=27017
fork=true
#noprealloc=true
replSet=test

216节点(arbite仲裁节点):

编辑mongodb.conf

#仲裁节点配置
dbpath=/opt/hadoop/mongodb4.4/data/arbite
logpath=/opt/hadoop/mongodb4.4/logs/arbite.log
logappend=true
bind_ip=192.168.32.216
#注意仲裁节点我给的端口号是27018
port=27018  
fork=true
#noprealloc=true
replSet=test

3.3启用

分别启动mongodb

直接输入如下命令即可,要保证路径正确即可:

 /opt/hadoop/mongodb4.4/bin/mongod -f /opt/hadoop/mongodb4.4/conf/mongodb.conf

 启动成功,如下

 我这里是连mongdb shell的服务也一块儿起了,后面要是想用的话,需要另外安装使用(可以去MongoDB官网查看很详细);

(4)再进一步简单的配置

a.在任意一个节点上,连接到主节点

这里ip换成你们配置中的主节点即可

 b.输入如下命令(里面ip换成你们自己的即可):

cfg={_id:"test", members: [ {_id:0,host:'192.168.32.215:27017',priority:2} ,{_id:1,host:'192.168.32.217:27017',priority:1} ,{_id:2,host:'192.168.32.216:27018',arbiterOnly:true}]};

c.初始化集群-让配置生效

rs.initiate(cfg) 

当你能看到代表成功ok:1

注意:如下是返回的初始化不成功的信息,需要关闭你们的机器防火墙即可;

 关闭防火墙的命令:

systemctl status firewalld
systemctl stop firewalld
systemctl disable firewalld

 再次执行,发现返回状态成功。

d.查看集群状态

 OK,测试完毕。

四.总结

以上三种集群搭建方式首选Replica Set,只有真的是大数据,Sharding才能显现威力,毕竟备节点同步数据是需要时间的。Sharding可以将多片数据集中到路由节点上进行一些对比,然后将数据返回给客户端,但是效率还是比较低的说。大家在应用的时候还是多多做下性能测试,毕竟不像Redis有benchmark。

       Mongodb现在用的还是比较多的,但是个人觉得配置太多了,我看官网都看了好多天,才把集群搭建的配置和注意要点弄明白。而且用过的人应该知道mongodb吃内存的问题,解决办法只能通过ulimit来控制内存使用量,但是如果控制不好的话,mongodb会挂掉。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/63421.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Facebook:筑牢隐私安全堡垒,守护社交净土

在全球社交媒体平台中&#xff0c;Facebook一直是风靡全球的佼佼者。然而&#xff0c;随着数字化信息的迅速膨胀&#xff0c;用户隐私保护的重要性日益凸显。面对用户对数据安全性的高度重视&#xff0c;Facebook致力于通过一系列措施来确保隐私保护&#xff0c;守护每位用户的…

多系统萎缩锻炼如何好起来?

多系统萎缩&#xff08;Multiple System Atrophy, MSA&#xff09;是一种复杂的神经系统退行性疾病&#xff0c;影响着患者的自主神经系统、运动系统和平衡功能等多个方面。面对这一挑战&#xff0c;科学、合理的锻炼对于缓解症状、提高生活质量至关重要。本文将详细介绍多系统…

实现RAGFlow-0.14.1的输入框多行输入和消息框的多行显示

一、Chat页面输入框的修改 1. macOS配置 我使用MacBook Pro&#xff0c;chip 是 Apple M3 Pro&#xff0c;Memory是18GB&#xff0c;macOS是 Sonoma 14.6.1。 2. 修改chat输入框代码 目前RAGFlow前端的chat功能&#xff0c;输入的内容是单行的&#xff0c;不能主动使用Shift…

11.17【大数据】Hadoop【DEBUG】

列出hdfs文件系统所有的目录和文件 主节点上 子结点 是一样的 *为什么能登进 slave 02 的主机,但是 master 当中依然显示 slave 02 为 DeadNode?* hadoop坏死节点的重启_hadoop3 子节点重启-CSDN博客 注意hadoop-daemon.sh 实际上位于 Hadoop 的 sbin 目录中&#xff0c;而不…

网络测速工具

1. SPEEDTEST https://www.speedtest.net/ 2. 测速网 测速网 - 专业测网速, 网速测试, 宽带提速, 游戏测速, 直播测速, 5G测速, 物联网监测,Wi-Fi 7,Wi-Fi 6,FTTR,全屋Wi-Fi - SpeedTest.cn 3. 字节比特换算 bps&#xff08;bits per second&#xff09; 字节和比特的换算…

快速构建NLP理论知识体系

NLP理论知识体系 一句话解释NLPNLP模型及原理简述1、Rag 一句话解释NLP 如果我们要实现机器翻译、情感分析、问答系统、文本摘要、聊天机器人、构造智能化的辅助文件填写模板&#xff0c;NLP可以通过现成的模型对输入的语音、文字、图片进行处理&#xff08;分词、标词性、去停…

AI - RAG中的状态化管理聊天记录

AI - RAG中的状态化管理聊天记录 大家好&#xff0c;今天我们来聊聊LangChain和LLM中一个重要的话题——状态化管理聊天记录。在使用大语言模型(LLM)的时候&#xff0c;聊天记录&#xff08;History&#xff09;和状态&#xff08;State&#xff09;管理是非常关键的。那我们先…

【AI学习】Mamba学习(二十):Mamba是一种线性注意力

论文《Demystify Mamba in Vision: A Linear Attention Perspective 》从线性注意力的视角&#xff0c;对Mamba 进行了阐释。 论文名称&#xff1a;Demystify Mamba in Vision: A Linear Attention Perspective (Arxiv 2024.05) 论文地址&#xff1a;https://arxiv.org/pdf/24…

POI遍历行所有单元格的两种方式,getPhysicalNumberOfCells方式有问题,勿用

今天看POI源码的时候&#xff0c;发现HSSFWorkbook类型的工作簿&#xff0c;行数据是用TreeMap<Integer, HSSFRow>存储的&#xff0c;列数据是用HSSFCell[]数组来存的&#xff1b;XSSFWorkbook类型的工作簿&#xff0c;行数据是用SortedMap<Integer, XSSFRow>存储的…

DataSophon集成CMAK KafkaManager

本次集成基于DDP1.2.1 集成CMAK-3.0.0.6 设计的json和tar包我放网盘了. 通过网盘分享的文件&#xff1a;DDP集成CMAK 链接: https://pan.baidu.com/s/1BR70Ajj9FxvjBlsOX4Ivhw?pwdcpmc 提取码: cpmc CMAK github上提供了zip压缩包.将压缩包解压之后 在根目录下加入启动脚本…

ArrayList常见操作源码逐句剖析

目录 前言 正文 1.需要了解的一些字段属性 1.存储 ArrayList 元素的数组缓冲区。 2.集合的大小 3.默认集合容量大小 2.ArrayList对象创建 1.无参构造 2.有参构造1 3.有参构造2 3.添加元素add(E e)以及扩容机制 ​编辑 后言 前言 源码的剖析有助于理解设计模式&…

重磅更新:CnosDB 2.3.5.4 版本上线, 性能提升,问题修复一网打尽

&#x1f4e2; 重磅更新&#xff1a;CnosDB 2.3.5.4 版本上线, 性能提升&#xff0c;问题修复一网打尽 &#x1f4e2; 我们很高兴地向大家介绍最新版本的更新&#xff0c;以下是本次更新的主要内容&#xff1a; &#x1f539; 版本号&#xff1a;2.3.5.4 &#x1f539; 发布…

SD-WAN 2.0 在金融行业的典型应用场景

目录 全扁平化组网 场景需求 应用方案 SD-WAN 2.0 在金融行业的创新实践 SD-WAN5G提高金融行业网络接入可靠性 全扁平化组网 随着金融机构数字化转型的推进&#xff0c;机构业务的多样性、复杂性、 个性化等要求&#xff0c;对现有的金融机构网络架构与网管人员运维模式提出…

如何延长相机电池续航时间

如果你曾在拍摄过程中突然发现相机电池电量不足&#xff0c;就会知道那有多让人紧张和沮丧了。无论你是在拍摄小朋友的生日派对、家庭聚会&#xff0c;还是作为一名专业摄影师在工作&#xff0c;保持电池有电都是至关重要的。否则&#xff0c;你就有可能错过精彩瞬间&#xff0…

C#开发-集合使用和技巧(十)Union用法-并集

在 C# 中&#xff0c;IEnumerable 的 Union 方法用于返回两个序列的并集。Union 方法会去除重复的元素&#xff0c;确保结果集中每个元素都是唯一的。以下是 Union 方法的基本用法&#xff1a; 基本语法 public static IEnumerable<TSource> Union<TSource>(this…

轻量化特征融合 | YOLOv11 引入一种基于增强层间特征相关性的轻量级特征融合网络 | 北理工新作

本改进已同步到Magic框架 摘要—无人机图像中的小目标检测由于分辨率低和背景融合等因素具有挑战性,导致特征信息有限。多尺度特征融合可以通过捕获不同尺度的信息来增强检测,但传统策略效果不佳。简单的连接或加法操作无法充分利用多尺度融合的优势,导致特征之间的相关性不…

ABAP 系统变量SY-INDEX与SY-TABIX的区别

ABAP系统变量SY-INDEX与SY-TABIX都是在循环中使用&#xff1a; SY-INDEX在Do...EndDo和While...EndWhile中起作用&#xff1b; SY-TABIX在Loop...EndLoop中有效。 详见如下实例&#xff1a; REPORT ztest_index_tabix.DATA:lit_vbak TYPE STANDARD TABLE OF vbak,lwa_vbak …

方案拆解 | 打击矩阵新规频出!2025矩阵营销该怎么玩?

社媒平台的矩阵营销又要“变天”了&#xff1f;&#xff01; 11月18日&#xff0c;小红书官方发表了被安全薯 称为“小红书史上最严打击黑灰产专项”新规&#xff0c;其中就包括黑灰产矩阵号的公告。 ▲ 图源&#xff1a;小红书 实际上&#xff0c;不包括这次&#xff0c;今年…

Lua语言入门 - Lua 数组

Lua 数组 数组&#xff0c;就是相同数据类型的元素按一定顺序排列的集合&#xff0c;可以是一维数组和多维数组。 在 Lua 中&#xff0c;数组不是一种特定的数据类型&#xff0c;而是一种用来存储一组值的数据结构。 实际上&#xff0c;Lua 中并没有专门的数组类型&#xff…

SVM的基本思想

一、SVM的基本思想 SVM的基本思想是在样本的向量空间中寻找一个超平面&#xff0c;使得两类样本被分割在平面的两端。这样的平面理论上有无穷多个&#xff0c;但SVM的目标是找到一个最优的超平面&#xff0c;即两侧距离超平面最近的样本点到超平面的距离被最大化的超平面。这个…