Redis数据持久化、数据备份、数据的故障恢复

1.redis持久化的意义----redis故障恢复
  在实际的生产环境中,很可能会遇到redis突然挂掉的情况,比如redis的进程死掉了、电缆被施工队挖了(支付宝例子)等等,总之一定会遇到各种奇葩的现象导致redis死掉,这时候放在redis内存中的数据就会全部丢失,这些数据可能服务很多的系统或者服务,当然,我们可以重新启动redis,重启之后,如果redis没有持久化,redis中的数据就会全部丢失。
如果通过持久化将数据搞一份到磁盘,然后定期的同步和备份到云存储服务上去,那么就可以保证数据不会全部丢失,还是可以恢复一部分数据的。

2.持久化的两大机制(RDB和AOF)
  RDB:对redis数据执行周期性的持久化
  AOF:将每条命令写入日志,以append-only的模式写入一个日志文件中,在redis重启的时候,可以通过回放AOF的写入指令来重新构建整个数据集

  是否实用持久化要看具体的业务场景:
  如果只是想让redis仅仅作为纯内存的缓存,那么可以禁止RDB和AOF。

  故障恢复大致思路:
    通过RDB或AOF,都可以将redis内存中的数据持久化到磁盘上来,然后可以将数据备份到阿里云,如果redis挂了,服务器中内存和磁盘的数据就都丢了,这时候可以将阿里云中的备份文件拷贝至指定目录下,然后重启redis,redis就会自动根据持久化数据文件去恢复内存中的数据,继续对外提供服务。如果同时室友了RDB和AOF两种持久化机制,那么在重启的时间建议使用AOF的方式重新构建数据,因为AOF中的数据更加完整。

3.剖析RDB和AOF
  RDB:早上7点,这个时候redis 中有500条数据,这个时候redis会在一定周期内生成一个RDB快照文件,等到了9点的时候redis中有8000条数据,这个时候又在一定的周期内生成了另一个RDB快照文件,这就是RDB持久化机制。
  AOF:redis 中每写入一条指令,就会把这条指令更新到磁盘中的文件中。然而在现代操作系统中,写文件不是直接写磁盘,会先写进os cache,然后在一定时间内再从os cache刷入disk file,对于AOF来说每隔一秒(可配置)调用一次操作系统饿fsync操作强制将os cache中的数据刷入磁盘文件中。但是redis内存中的数据也不是无限增长的,它是定期的根据LRU算法清理一些不常用的数据,这样才能保证AOF不会无限增长,但是如果LRU的清理速度比不上AOF的膨胀速度的时候,这时候当AOF大到一定程度就会进行AOF rewrite操作。AOF rewrite操作就会基于当时redis内存中的数据来重新构造一个更小的AOF文件,然后将旧的AOF文件删除。
简单的说,假设redis限定了只能存放10G数据,这时候不断的在redis中写入数据,当达到了10G的数据量的时候,这时候根据LRU清理了一些不常用的数据,清理了5G,这时候又写了5G,这时候AOF文件记录了15G的数据相关的写入指令,假如这个时候AOF已经膨胀了,这个时候redis进行AOF rewrite操作,重新生成了一个新的10G的数据指令的AOF文件,这个时候将继续写入新的AOF文件,将老的AOF文件删除。

4.RDB和AOF优缺点
  RDB优点
  (1).RDB会生成多个数据文件,每个数据文件都代表了某一个时刻中redis的数据,这种多个数据文件的方式,非常适合做冷备,可以将这种完整的数据文件发送到一些远程的安全存储上去,比如阿里云的ODPS分布式存储上,以预定好的备份策略来定期备份redis中的数据。
  RDB做冷备,生成多个文件,每个文件都代表了某一个时刻的完整的数据快照
  AOF也可以做冷备,只有一个文件,但是你可以,每隔一定时间,去copy一份这个文件出来
但是RDB更适合做冷备,它的优势是由redis去控制固定时长生成快照文件的事情,比较方便; AOF,还需要自己写一些脚本去做这个事情,需要自己写定时脚本,而且RDB数据做冷备,在最坏的情况下,提供数据恢复的时候,速度比AOF快

  (2).RDB对redis对外提供的读写服务,影响非常小,可以让redis保持高性能,因为redis主进程只需要fork一个子进程,让子进程执行磁盘IO操作来进行RDB持久化即可
RDB,每次写,都是直接写redis内存,只是在一定的时候,才会将数据写入磁盘中
AOF,每次都是要写文件的,虽然可以快速写入os cache中,但是还是有一定的时间开销的,速度肯定比RDB略慢一些

  (3).相对于AOF持久化机制来说,直接基于RDB数据文件来重启和恢复redis进程,更加快速

  RDB缺点
  (1).如果想要在redis故障时,尽可能少的丢失数据,那么RDB没有AOF好。一般来说,RDB数据快照文件,都是每隔5分钟,或者更长时间生成一次,这个时候就得接受一旦redis进程宕机,那么会丢失最近5分钟的数据,这也是rdb最大的缺点,就是不适合做第一优先的恢复方案,如果你依赖RDB做第一优先恢复方案,会导致数据丢失的比较多。
  (2).RDB每次在fork子进程来执行RDB快照数据文件生成的时候,如果数据文件特别大,可能会导致对客户端提供的服务暂停数毫秒,或者甚至数秒,所以一般不要让RDB的间隔太长,否则每次生成的RDB文件太大了,对redis本身的性能可能会有影响的


  AOF优点
  (1).AOF可以更好的保护数据不丢失,一般AOF会每隔1秒,通过一个后台线程执行一次fsync操作,最多丢失1秒钟的数据,每隔1秒,就执行一次fsync操作,保证os cache中的数据写入磁盘中,redis进程挂了,最多丢掉1秒钟的数据。
  (2).AOF日志文件以append-only模式写入,所以没有任何磁盘寻址的开销,写入性能非常高,而且文件不容易破损,即使文件尾部破损,也很容易修复。
  (3).AOF日志文件即使过大的时候,出现后台重写操作,也不会影响客户端的读写。因为在rewrite log的时候,会对其中的内容进行压缩,创建出一份需要恢复数据的最小日志出来。再创建新日志文件的时候,老的日志文件还是照常写入。当新的merge后的日志文件ready的时候,再交换新老日志文件即可。
  (4).AOF日志文件的命令通过可读的方式进行记录,这个特性非常适合做灾难性的误删除的紧急恢复。比如某人不小心用flushall命令清空了所有数据,只要这个时候后台rewrite还没有发生,那么就可以立即拷贝AOF文件,将最后一条flushall命令给删了,然后再将该AOF文件放回去,就可以通过恢复机制,自动恢复所有数据

  AOF缺点
  (1).对于同一份数据来说,AOF日志文件通常比RDB数据快照文件更大
  (2).AOF开启后,支持的写QPS会比RDB支持的写QPS低,因为AOF一般会配置成每秒fsync一次日志文件,当然,每秒一次fsync,性能也还是很高的,如果你要保证一条数据都不丢,也是可以的,AOF的fsync设置成没写入一条数据,fsync一次,那就完蛋了,redis的QPS大降。
  (3).以前AOF发生过bug,就是通过AOF记录的日志,进行数据恢复的时候,没有恢复一模一样的数据出来。所以说,类似AOF这种较为复杂的基于命令日志/merge/回放的方式,比基于RDB每次持久化一份完整的数据快照文件的方式,更加脆弱一些,容易有bug。不过AOF就是为了避免rewrite过程导致的bug,因此每次rewrite并不是基于旧的指令日志进行merge的,而是基于当时内存中的数据进行指令的重新构建,这样健壮性会好很多。
  (4).唯一的比较大的缺点,其实就是做数据恢复的时候,会比较慢,还有做冷备,定期的备份,不太方便,可能要自己手写复杂的脚本去做,做冷备不太合适


  AOF和RDB数据恢复机制
  AOF,存放的指令日志,做数据恢复的时候,其实是要回放和执行所有的指令日志,来恢复出来内存中的所有数据的
  RDB,就是一份数据文件,恢复的时候,直接加载到内存中即可

  无论是AOF和RDB,在redis中都以一个文件的形式存在!!!


5.RDB和AOF如何选择
  (1).不要仅仅使用RDB,因为那样会导致你丢失很多数据
  (2).也不要仅仅使用AOF,因为那样有两个问题,第一,你通过AOF做冷备,没有RDB做冷备,来的恢复速度更快; 第二,RDB每次简单粗暴生成数据快照,更加健壮,可以避免AOF这种复杂的备份和恢复机制的bug
  (3).综合使用AOF和RDB两种持久化机制,用AOF来保证数据不丢失,作为数据恢复的第一选择; 用RDB来做不同程度的冷备,在AOF文件都丢失或损坏不可用的时候,还可以使用RDB来进行快速的数据恢复

6.如何配置RDB持久化
  (1).redis.conf文件,也就是/etc/redis/6379.conf,去配置持久化
例如:save 60 1000
(每隔60s,如果有超过1000个key发生了变更,那么就生成一个新的dump.rdb文件,就是当前redis内存中完整的数据快照,这个操作也被称之为snapshotting,快照
也可以手动调用save或者bgsave命令,同步或异步执行rdb快照生成)
  (2).save可以设置多个,就是多个snapshotting检查点,每到一个检查点,就会去check一下,是否有指定的key数量发生了变更,如果有,就生成一个新的dump.rdb文件


7.RDB持久化机制的工作流程
  (1).redis根据配置自己尝试去生成rdb快照文件,fork一个子进程出来,子进程尝试将数据dump到临时的rdb快照文件中,完成rdb快照文件的生成之后,就替换之前的旧的快照文件,dump.rdb,每次生成一个新的快照,都会覆盖之前的老快照。


8.基于RDB持久化机制的数据恢复实验
  (1).在redis中保存几条数据,立即停掉redis进程,然后重启redis,看看刚才插入的数据还在不在
  (2).在redis中再保存几条新的数据,用kill -9粗暴杀死redis进程,模拟redis故障异常退出,导致内存数据丢失的场景

  注意:通过redis-cli SHUTDOWN这种方式去停掉redis,其实是一种安全退出的模式,redis在退出的时候会将内存中的数据立即生成一份完整的rdb快照


9.如何配置AOF持久化
  (1).AOF持久化,默认是关闭的,默认是打开RDB持久化
  (2).appendonly yes,可以打开AOF持久化机制,在生产环境里面,一般来说AOF都是要打开的,除非你说随便丢个几分钟的数据也无所谓,打开AOF持久化机制之后,redis每次接收到一条写命令,就会写入日志文件中,当然是先写入os cache的,然后每隔一定时间再fsync一下,而且即使AOF和RDB都开启了,redis重启的时候,也是优先通过AOF进行数据恢复的,因为aof数据比较完整
  (3).可以配置AOF的fsync策略,有三种策略可以选择,一种是每次写入一条数据就执行一次fsync; 一种是每隔一秒执行一次fsync; 一种是不主动执行fsync
always: 每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低; 确保说redis里的数据一条都不丢,那就只能这样了
everysec: 每秒将os cache中的数据fsync到磁盘,这个最常用的,生产环境一般都这么配置,性能很高,QPS还是可以上万的
no: 仅仅redis负责将数据写入os cache就撒手不管了,然后后面os自己会时不时有自己的策略将数据刷入磁盘,不可控了


10.AOF持久化的数据恢复实验
  (1).先仅仅打开RDB,写入一些数据,然后kill -9杀掉redis进程,接着重启redis,发现数据没了,因为RDB快照还没生成
  (2).打开AOF的开关,启用AOF持久化
  (3).写入一些数据,观察AOF文件中的日志内容
  (4).kill -9杀掉redis进程,重新启动redis进程,发现数据被恢复回来了,就是从AOF文件中恢复回来的(redis进程启动的时候,直接就会从appendonly.aof中加载所有的日志,把内存中的数据恢复回来)

  注意:在appendonly.aof文件中,可以看到刚写的日志,它们其实就是先写入os cache的,然后1秒后才fsync到磁盘中,只有fsync到磁盘中了,才是安全的,要不然光是在os cache中,机器只要重启,就什么都没了


11.AOF rewrite
  AOF工作原理
  (1).redis fork一个子进程
  (2).子进程基于当前内存中的数据,构建日志,开始往一个新的临时的AOF文件中写入日志
  (3).redis主进程,接收到client新的写操作之后,在内存中的数据继续写入新日志到AOF文件中,同时新的数据也继续写入旧的AOF文件
  (4).redis主进程将内存中的新写进去的日志再次追加到新的AOF文件中
  (5).用新的日志文件替换掉旧的日志文件


  redis中的数据其实有限的,很多数据可能会自动过期,可能会被用户删除,可能会被redis用缓存清除的算法清理掉,redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中,所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,AOF日志文件就一个,会不断的膨胀,到很大很大,所以AOF会自动在后台每隔一定时间做rewrite操作,比如日志里已经存放了针对100w数据的写日志了; redis内存只剩下10万; 基于内存中当前的10万数据构建一套最新的日志,到AOF中; 覆盖之前的老日志; 确保AOF日志文件不会过大,保持跟redis内存数据量一致
redis 2.4之前,还需要手动,开发一些脚本,crontab,通过BGREWRITEAOF命令去执行AOF rewrite,但是redis 2.4之后,会自动进行rewrite操作

  注意:
  在redis.conf中,可以配置rewrite策略
  auto-aof-rewrite-percentage 100
  auto-aof-rewrite-min-size 64mb
  比如说上一次AOF rewrite之后,是128mb,然后就会接着128mb继续写AOF的日志,如果发现增长的比例,超过了之前的100%,也就是256mb,就可能会去触发一次rewrite,但是此时还要去跟min-size,64mb去比较,256mb > 64mb,才会去触发rewrite


12.AOF破损文件的修复
  如果redis在append数据到AOF文件时,机器宕机了,可能会导致AOF文件破损,用redis-check-aof --fix命令来修复破损的AOF文件。


13.AOF和RDB同时工作
  (1).如果RDB在执行snapshotting操作,那么redis不会执行AOF rewrite; 如果redis再执行AOF rewrite,那么就不会执行RDB snapshotting
  (2).如果RDB在执行snapshotting,此时用户执行BGREWRITEAOF命令,那么等RDB快照生成之后,才会去执行AOF rewrite
  (3).同时有RDB snapshot文件和AOF日志文件,那么redis重启的时候,会优先使用AOF进行数据恢复,因为其中的日志更完整



14.企业级的持久化的配置策略
  企业中,RDB的生成策略,用默认的也差不多
  save 60 10000:如果你希望尽可能确保说,RDB最多丢1分钟的数据,那么尽量就是每隔1分钟都生成一个快照,低峰期,数据量很少,也没必要
  AOF一定要打开,fsync,everysec
  auto-aof-rewrite-percentage 100: 就是当前AOF大小膨胀到超过上次100%,上次的两倍
  auto-aof-rewrite-min-size 64mb: 根据你的数据量来定,16mb,32mb

15.企业级的数据备份方案
  (1).写crontab定时调度脚本去做数据备份
  (2).每小时都copy一份rdb的备份,到一个目录中去,仅仅保留最近48小时的备份
  (3).每天都保留一份当日的rdb的备份,到一个目录中去,仅仅保留最近1个月的备份
  (4).每次copy备份的时候,都把太旧的备份给删了
  (5).每天晚上将当前服务器上所有的数据备份,发送一份到远程的云服务上去

  按小时和按天同时备份

  每小时copy一次备份,删除48小时前的数据
  crontab -e
  0 * * * * sh /usr/local/redis/copy/redis_rdb_copy_hourly.sh
  redis_rdb_copy_hourly.sh

  #!/bin/sh
  cur_date=`date +%Y%m%d%k`
  rm -rf /usr/local/redis/snapshotting/$cur_date
  mkdir /usr/local/redis/snapshotting/$cur_date
  cp /var/redis/6379/dump.rdb /usr/local/redis/snapshotting/$cur_date

  del_date=`date -d -48hour +%Y%m%d%k`
  rm -rf /usr/local/redis/snapshotting/$del_date

  每天copy一次备份
  crontab -e
  0 0 * * * sh /usr/local/redis/copy/redis_rdb_copy_daily.sh
  redis_rdb_copy_daily.sh

  #!/bin/sh
  cur_date=`date +%Y%m%d`
  rm -rf /usr/local/redis/snapshotting/$cur_date
  mkdir /usr/local/redis/snapshotting/$cur_date
  cp /var/redis/6379/dump.rdb /usr/local/redis/snapshotting/$cur_date
  del_date=`date -d -1month +%Y%m%d`
  rm -rf /usr/local/redis/snapshotting/$del_date

  每天一次将所有数据上传一次到远程的云服务器上去

16.企业级数据恢复方案
  (1).如果是redis进程挂掉,那么重启redis进程即可,直接基于AOF日志文件恢复数据
  (2).如果是redis进程所在机器挂掉,那么重启机器后,尝试重启redis进程,尝试直接基于AOF日志文件进行数据恢复,前提是AOF没有破损,AOF append-only,顺序写入,如果AOF文件破损,那么用redis-check-aof fix修复。
  (3).如果redis当前最新的AOF和RDB文件出现了丢失/损坏,那么可以尝试基于该机器上当前的某个最新的RDB数据副本进行数据恢复,当前最新的AOF和RDB文件都出现了丢失/损坏到无法恢复,一般不是机器的故障,而是人为。


17.容灾演练
  appendonly.aof + dump.rdb,优先用appendonly.aof去恢复数据。

  (1).如果关闭AOF持久化机制,并且dump.rdb是有数据的,这时候重启redis,发现内存中明显没有恢复数据。
原因:redis启动的时候,自动重新基于内存的数据,生成了一份最新的rdb快照,直接用空的数据,覆盖掉了我们有数据的dump.rdb
  (2).如果打开AOF,停止redis之后,先删除appendonly.aof,然后将我们的dump.rdb拷贝过去,然后再重启redis,发现依然没有恢复数据
原因:虽然你删除了appendonly.aof,但是因为打开了aof持久化,redis就一定会优先基于aof去恢复,即使文件不在,那就创建一个新的空的aof文件
  (3).停止redis,暂时在配置中关闭aof,然后拷贝一份rdb过来,再重启redis,这时候内存中的数据恢复成功;假如不小心,再关掉redis,手动修改配置文件,打开aof,再重启redis,数据又没了,因为是空的aof文件,所以所有数据又没了。

  在数据安全丢失的情况下,基于rdb冷备,如何完美的恢复数据,同时还保持aof和rdb的双开?
  (4).停止redis,关闭aof,拷贝rdb备份,重启redis,确认数据恢复,直接在命令行热修改redis配置,打开aof,这个redis就会将内存中的数据对应的日志,写入aof文件中,此时aof和rdb两份数据文件的数据就同步了。
注意:redis config set热修改配置参数,可能配置文件中的实际的参数没有被持久化的修改,再次停止redis,手动修改配置文件,打开aof的命令,再次重启redis
  (5).如果当前机器上的所有RDB文件全部损坏,那么从远程的云服务上拉取最新的RDB快照回来恢复数据
  (6).如果是发现有重大的数据错误,比如某个小时上线的程序一下子将数据全部污染了,数据全错了,那么可以选择某个更早的时间点,对数据进行恢复
举个例子,12点上线了代码,发现代码有bug,导致代码生成的所有的缓存数据,写入redis,全部错了,找到一份11点的rdb的冷备,然后按照上面的步骤,去恢复到11点的数据。

转载于:https://www.cnblogs.com/diaozhaojian/p/10571415.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/483877.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

机器学习如何彻底改变游戏中的物理模拟

来源:AI科技评论编译:琰琰编辑:王晔量子力学奠基者之一、英国理论物理学家保罗狄拉克(Paul Dirac)在1929年说过:“大部分物理和化学所需要的数学理论的定律都是已知的,但这些定律的方程太复杂无…

《动手学深度学习 PyTorch版》学习笔记(二):自动求梯度

一、自动求梯度 1、requires_grad_(), detach(), torch.no_grad()的区别 参考博客:https://www.jianshu.com/p/ff74ccae25f3 2、.grad_fn 每个Tensor都有一个.grad_fn属性,该属性即创建该Tensor的Function, 就是说该Tensor是不是通过某些运算得到的&am…

学习计划1

今天开始着手做热词的项目,但是对于数据的处理仍然没有好的办法,网上最多的方法便是用C#操作,但是在尝试之后仍然没有进展转载于:https://www.cnblogs.com/ljysy/p/10574018.html

线性表——顺序表

1 算法思想:顺序遍历整个链表,找出最小值元素,用一个min存储这个值,同时将最后一个元素填补此值#define Maxsize 100 typedef Elemtype int typedef struct{Elemtype data[Maxsize];int length; }bool delmin(sqlist &L,Elem…

重新认识区块链:1550余个应用案例带来的启示

来源:资本实验室,本文摘自《2021全球区块链应用市场报告》当我们谈论区块链的时候,但凡对区块链有所了解的人都能够就相关主题或多或少地表达出自己的一些见解。例如:从技术体系上看,区块链是分布式数据存储、点对点传…

线性表——链表

#include <iostream> #include <bits/stdc.h> using namespace std;typedef int Elemtype; //定义单链表 typedef struct Lnode{Elemtype data;struct Lnode *next; }Lnode,*Linklist; int a[4]{1,2,3,4}; int n4;//建立不带头节点的链表 void buildlist(Lnode *L)…

《动手学深度学习 PyTorch版》学习笔记(三):线性回归

线性回归输出是一个连续值&#xff0c;因此适用于回归问题。回归问题在实际中很常见&#xff0c;如预测房屋价格、气温、销售额等连续值的问题。 一、基本要素 摘自原书 模型定义 设房屋的面积为 x1&#xff0c;房龄为 x2&#xff0c;售出价格为 y。我们需要建立基于输入 x…

php 实现图片上传并压缩功能

前段时间由于项目需要&#xff0c;要实现图片上传并且压缩生成缩略图的功能。 接口代码如下&#xff1a; $allowext array ( png, jpg, jpeg, gif,mp4,doc); $fileElement file; $filepath_rel userfiles/upload/chatfile/.date("Ymd")."/"; // 相对路径…

OpenAI 是如何被10亿美元收买了“非盈利”灵魂的?

来源&#xff1a;AI科技评论编译&#xff1a;陈彩娴、琰琰近日&#xff0c;一篇名为“How OpenAI Sold its Soul for $1 Billion”&#xff08;OpenAI是如何因为 10 亿美元出卖自己的灵魂&#xff09;的文章在 Reddit 上引起了热议。文章作者 Alberto Romero 抨击知名的非营利机…

传输速率、波特率、奈氏准则

波特率与传输速率 波特率与数据传输速率C的关系&#xff1a;CBlog2N N:为一个码元所取的离散值的个数。 408考研-2011-34 若某通信链路的数据传输速率为2400bps&#xff0c;采用四相位调制&#xff0c;则该链路的波特率是_____。 A.600波特 B.1200波特 C.4800波特 D.9600波特…

【算法】蓝桥杯dfs深度优先搜索之排列组合总结

【导航】 上一篇文章 → 《【算法】蓝桥杯dfs深度优先搜索之凑算式总结》 为了重申感谢之意&#xff0c;再次声明下文的大部分灵感均来自于【CSDN】梅森上校《JAVA版本&#xff1a;DFS算法题解两个例子&#xff08;走迷宫和求排列组合数&#xff09;》  强烈大家去上面那篇文…

人工神经网络能否驾驭生物神经元的“浓稠”程度?5到8层可能并非极限

来源&#xff1a;图灵人工智能编译&#xff1a;李扬霞编辑&#xff1a;青暮计算神经科学家通过训练人工神经网络来模仿生物神经元&#xff0c;提供了一种探讨单个脑细胞复杂性的新方法。虽然我们糊状的大脑似乎与计算机处理器中的芯片大相径庭&#xff0c;但科学家对两者的比较…

leaf 叶子(张量)

在pytorch的tensor类中,有个is_leaf的属性,姑且把它作为叶子节点. is_leaf 为False的时候,则不是叶子节点, is_leaf为True的时候为叶子节点(或者叶张量) 所以问题来了: leaf的作用是什么?为什么要加 leaf? 我们都知道tensor中的 requires_grad()属性&#xff0c;当requires_…

线性表——链表删除

王道链表题1-4 #include <iostream> #include <bits/stdc.h> using namespace std;typedef int Elemtype; //定义单链表 typedef struct Lnode{Elemtype data;struct Lnode *next; }Lnode,*Linklist; int a[4]{1,2,3,4}; int n4;//建立不带头节点的链表 void buil…

10个绕过反病毒的恶意用户技巧

原文&#xff1a;https://blog.netspi.com/10-evil-user-tricks-for-bypassing-anti-virus/ 介绍 译者注&#xff1a;很多不通顺的语句改掉了&#xff0c;还有反病毒解决方案统一翻译为了反病毒软件。无关紧要的话直接意思翻译 许多反病毒软件的部署配置方法较弱&#xff0c;为…

困扰爱因斯坦的「幽灵般的超距作用」,是如何被贝尔定理证明确实存在的?...

文章来源&#xff1a;机器之心作者&#xff1a;Ben Brubaker原文链接&#xff1a;https://www.quantamagazine.org/how-bells-theorem-proved-spooky-action-at-a-distance-is-real-20210720/我们理所当然地认为&#xff0c;世界上某个地方发生的一件事不会立即对远方的事物产生…

Jupyter notebook 导入和卸载 conda 虚拟环境

一、导入 进入Anaconda Prompt&#xff0c;激活要使用的虚拟环境。 conda activate xxx # 你要使用的虚拟环境名称安装 ipykernel 插件&#xff0c; 建议使用 pip 进行安装&#xff0c; conda 安装容易失败 pip install ipykernel安装完成之后&#xff0c;键入以下命令 pyt…

处理器管理与进程管理

4.python练习 1.观察父进程、子进程 2.观察进程运行状态 3。输入多个作业的作业编号&#xff0c;到达时间&#xff0c;所需CPU时间&#xff0c;形成列表&#xff0c;以备算法使用。 转载于:https://www.cnblogs.com/hclhechunlu/p/10580946.html

小白 LeetCode 242 有效的字母异位词

字母异位词 字符串由相同字母组成&#xff0c;但允许排列顺序不同。 如“aaabbb” 与 “ababab” 是字母异位词&#xff0c; 而“aabb” 与 “ab” 不是字母异位词。 题目&#xff1a;给定两个字符串 s 和 t &#xff0c;编写一个函数来判断 t 是否是 s 的字母异位词。 示例…

LSTM之父:吐槽了两年,来划划重点:“这5篇最高引论文都源于我们。”

来源&#xff1a;AI科技评论作者&#xff1a;陈彩娴编辑&#xff1a;青暮昨晚&#xff0c;“递归神经网络之父”Jrgen Schmidhuber 在推特上亲自发文&#xff0c;称目前引用数最高的5项神经网络工作都基于他的团队成果&#xff0c;一时引起了网友的广泛讨论。这并不是他首次发声…