FCOS难点记录

在这里插入图片描述
FCOS 中有计算 特征图(Feature map中的每个特征点到gt_box的左、上、右、下的距离)

1、特征点到gt_box框的 左、上、右、下距离计算

		x = coords[:, 0] # h*w,2   即 第一列y = coords[:, 1] l_off = x[None, :, None] - gt_boxes[..., 0][:, None, :]  # [1,h*w,1]-[batch_size,1,m]-->[batch_size,h*w,m]t_off = y[None, :, None] - gt_boxes[..., 1][:, None, :]r_off = gt_boxes[..., 2][:, None, :] - x[None, :, None]b_off = gt_boxes[..., 3][:, None, :] - y[None, :, None]ltrb_off = torch.stack([l_off, t_off, r_off, b_off], dim=-1)  # [batch_size,h*w,m,4]areas = (ltrb_off[..., 0] + ltrb_off[..., 2]) * (ltrb_off[..., 1] + ltrb_off[..., 3])  # [batch_size,h*w,m]off_min = torch.min(ltrb_off, dim=-1)[0]  # [batch_size,h*w,m]off_max = torch.max(ltrb_off, dim=-1)[0]  # [batch_size,h*w,m]

根据上边的画的图可以看出,假设对应的 feature map 大小为 2x2,stride=4,原始图片为8x8。将特征图中的每个特征点映射回去,可以得到相应的 4个(h*w个)坐标。对应图中的 红色a,绿色b,黄色c和蓝色d的点。

print(x,"\n",y,x.shape)
'''
tensor([2., 6., 2., 6.]) 
tensor([2., 2., 6., 6.]) torch.Size([4])
'''print(x[None,:,None]) # [1,4,1]
'''
tensor([[[2.],[6.],[2.],[6.]]]) 
'''print(gt_boxes) # [1,2,4]  batch=1, 两个框,每个框左上角和右下角坐标
'''
tensor([[[5, 4, 7, 6],[1, 1, 4, 6]]])
'''print(gt_boxes[...,0],gt_boxes[...,0][:,None,:])
''' 
tensor([[5, 1]]) tensor([[[5, 1]]])
'''
l_off = [2,2]-[5,1]=[-3,1]  以此类推print(l_off,"\n", l_off.shape)'''
**第一列代表,所有的点abcd横坐标与第一个框的左边偏移量。第二列代表到第二个框的偏移量**
tensor([[[-3.,  1.],[ 1.,  5.],[-3.,  1.],[ 1.,  5.]]]) torch.Size([1, 4, 2])'''print(ltrb_off)
'''
第一列代表,所有的投影点abcd,到两个框的左边偏移量。第一行第二行分别代表两个框。
tensor([[[[-3., -2.,  5.,  4.], # a 点到第一个框的左边、上边、右边、下边的偏移[ 1.,  1.,  2.,  4.]], # a 点到第二框的左边、上边、右边、下边的偏移[[ 1., -2.,  1.,  4.], # b 点到第一个框的左边、上边、右边、下边的偏移[ 5.,  1., -2.,  4.]],[[-3.,  2.,  5.,  0.],[ 1.,  5.,  2.,  0.]],[[ 1.,  2.,  1.,  0.],[ 5.,  5., -2.,  0.]]]]) torch.Size([1, 4, 2, 4]) #[batch_size,h*w,m,4]
'''print(ltrb_off[...,0])
'''tensor([[[-3.,  1.],[ 1.,  5.],[-3.,  1.],[ 1.,  5.]]]) torch.Size([1, 4, 2])
'''print(areas)
'''
areas: tensor([[[ 4., 15.],[ 4., 15.],[ 4., 15.],[ 4., 15.]]])
'''torch.return_types.min(
values=tensor([[[-3.,  1.],[-2., -2.],[-3.,  0.],[ 0., -2.]]]),
indices=tensor([[[0, 0],[1, 2],[0, 3],[3, 2]]])) torch.return_types.max(
values=tensor([[[5., 4.],[4., 5.],[5., 5.],[2., 5.]]]),
indices=tensor([[[2, 3],[3, 0],[2, 1],[1, 0]]]))

2、确定该特征点在哪一个框内,是否在该FPN特征层进行尺寸判断并进行后续预测

off_min = torch.min(ltrb_off, dim=-1)[0]  # [batch_size,h*w,m] # off_min 找出所有 特征点  到 每个框的 四条边 最小的距离
off_max = torch.max(ltrb_off, dim=-1)[0]  # [batch_size,h*w,m]  #off_max 找出所有 特征点  到 每个框的 四条边 最大的距离mask_in_gtboxes = off_min > 0
mask_in_level = (off_max > limit_range[0]) & (off_max <= limit_range[1]) # 锁定在这个limit range上的所有的特征的点	
print("ltrf_off",ltrb_off)
print("off_min",off_min,"\n","off_max",off_max)
print("mask_in_gtboxes-->",mask_in_gtboxes)
print("mask_in_level-->",mask_in_level)'''
ltrf_off tensor([[[[-3., -2.,  5.,  4.], # a 点到第一个框的左边、上边、右边、下边的偏移[ 1.,  1.,  2.,  4.]],  # a 点到第二个框的左边、上边、右边、下边的偏移[[ 1., -2.,  1.,  4.], # b 点到第一个框的左边、上边、右边、下边的偏移[ 5.,  1., -2.,  4.]],[[-3.,  2.,  5.,  0.],[ 1.,  5.,  2.,  0.]],[[ 1.,  2.,  1.,  0.],[ 5.,  5., -2.,  0.]]]])off_min 
tensor([[[-3.,  1.], # a点到第一个框最小距离-3,  a点到第二个框的最小偏移距离 1[-2., -2.], #b点到第一个框最小距离-2,  b点到第二个框的最小偏移距离 -2[-3.,  0.], # c点到第一个框最小距离-3,  a点到第二个框的最小偏移距离 0[ 0., -2.]]]) # d点到第一个框最小距离0,  a点到第二个框的最小偏移距离 -2off_max tensor([[[5., 4.],[4., 5.],[5., 5.],[2., 5.]]])mask_in_gtboxes-->  # 判断了 特征点是否在框内
tensor([[[False,  True],  # a点到第一个框四边最小偏移距离小于0,所以,a点不属于第一个框,为false;以此类推。[False, False],[False, False],[False, False]]]) # [batch,h*w,m]mask_in_level-->  # 锁定在这个limit range上的所有的特征的点	
tensor([[[True, True],  # 锁定了a 在这个level中[True, True],  # 锁定了b[True, True],  # 锁定了c[True, True]]])# 锁定了d  都在这个FPN级别上  [batch,h*w,m]
'''

3、特征点是否在框中心的范围内,用来判断是否为正样本

	radiu = stride * sample_radiu_ratio # 4*1.15 = 4.6gt_center_x = (gt_boxes[..., 0] + gt_boxes[..., 2]) / 2gt_center_y = (gt_boxes[..., 1] + gt_boxes[..., 3]) / 2c_l_off = x[None, :, None] - gt_center_x[:, None, :]  # [1,h*w,1]-[batch_size,1,m]-->[batch_size,h*w,m]c_t_off = y[None, :, None] - gt_center_y[:, None, :]c_r_off = gt_center_x[:, None, :] - x[None, :, None]c_b_off = gt_center_y[:, None, :] - y[None, :, None]c_ltrb_off = torch.stack([c_l_off, c_t_off, c_r_off, c_b_off], dim=-1)  # [batch_size,h*w,m,4]c_off_max = torch.max(c_ltrb_off, dim=-1)[0]mask_center = c_off_max < radiu
print("c_ltrb_off",c_ltrb_off)
print("c_off_max",c_off_max)
print("mask_center",mask_center)'''
c_ltrb_off 
tensor([[[[-4.0000, -3.0000,  4.0000,  3.0000],  # 同上边一样,a到 第一个框 小的中心框四边 的距离[-0.5000, -1.5000,  0.5000,  1.5000]], # a到 第二个框 小的中心框四边 的距离[[ 0.0000, -3.0000,  0.0000,  3.0000], # b到 第一个框 小的中心框四边 的距离[ 3.5000, -1.5000, -3.5000,  1.5000]], # # b到 第二个框 小的中心框四边 的距离[[-4.0000,  1.0000,  4.0000, -1.0000],[-0.5000,  2.5000,  0.5000, -2.5000]],[[ 0.0000,  1.0000,  0.0000, -1.0000],[ 3.5000,  2.5000, -3.5000, -2.5000]]]])c_off_max tensor([[[4.0000, 1.5000], # 找到a特征点到第一个框中心框和第二个框的中心框的 最大距离[3.0000, 3.5000],[4.0000, 2.5000],[1.0000, 3.5000]]]) # [batch,h*w,m] 4个特征点(a,b,c,d) x 框的个数2个(第一个框,第二个框)mask_center tensor([[[True, True], # 判断是否在这个框里中心点里边 正样本[True, True],[True, True],[True, True]]]) ## [batch,h*w,m]
'''

3、制定mask,根据上边的 gt_box、fpn_level、mask_center

‘’’
mask_pos 是三个约束条件的交集,分别是特征点在gt中,特征点在level中,以及特征点距离Gt中的center小于指定的范围
‘’’

mask_pos = mask_in_gtboxes & mask_in_level & mask_center  # [batch_size,h*w,m]areas[~mask_pos] = 99999999
areas_min_ind = torch.min(areas, dim=-1)[1]  # [batch_size,h*w]
mask_pos = mask_in_gtboxes & mask_in_level & mask_center  # [batch_size,h*w,m]
print("pre_areas:",areas)
areas[~mask_pos] = 99999999
areas_min_ind = torch.min(areas, dim=-1)[1]  # [batch_size,h*w] # 返回索引,注意和上边的区别,上边返回值,比大小
# torch.max()  or  torch.min() dim=0 找列,dim=1  找行
print("mask_pos-->",mask_pos)
print("post_ares",areas)
print("areas_min_ind",areas_min_ind)'''
mask_in_gtboxes--> 
tensor([[[False,  True],[False, False],[False, False],[False, False]]])
mask_in_level--> 
tensor([[[True, True],[True, True],[True, True],[True, True]]])
mask_center 
tensor([[[True, True],[True, True],[True, True],[True, True]]])mask_pos--> 
tensor([[[False,  True],  # 只有a点在第二个框在这个fpn这个level, 同时满足这三个条件[False, False],[False, False],[False, False]]])post_ares 
tensor([[[1.0000e+08, 1.5000e+01],[1.0000e+08, 1.0000e+08],[1.0000e+08, 1.0000e+08],[1.0000e+08, 1.0000e+08]]]) # #[batch_size,h*w,m] 将 满足要求的 保持面积不面,其他设置为很大的值areas_min_ind tensor([[1, 0, 0, 0]]) # [batch_size,h*w] min[1]返回的是对应的indices  找到最小的面积,返回索引。'''

4、 回归的目标

给a,b,c,d四个特征点 确定 偏移量。用于后续回归

![在这里插入图片描述](https://img-blog.csdnimg.cn/3e504ea230ff47c097ba9eb6caddca55.png在这里插入图片描述

reg_targets = ltrb_off[torch.zeros_like(areas, dtype=torch.bool)
.scatter_(-1, areas_min_ind.unsqueeze(dim=-1), 1)]  # [batch_size*h*w,4]
reg_targets = torch.reshape(reg_targets, (batch_size, -1, 4))  # [batch_size,h*w,4]
scatter_的用法:参考 https://blog.csdn.net/weixin_43496455/article/details/103870889
scatter(dim, index, src)将src中数据根据index中的索引按照dim的方向进行填充。dim=0
'''
areas: 
tensor([[[ 4., 15.],[ 4., 15.],[ 4., 15.],[ 4., 15.]]]) [1,4,2]
扩展维度之后  [1,4] --> torch.Size([1, 4, 1]) ===> [[[1,0,0,0]]]
torch.zeros_like(areas, dtype=torch.bool) 
tensor([[[False, False],[False, False],[False, False],[False, False]]])after scatter_--> 
tensor([[[False,  True],[ True, False],[ True, False],[ True, False]]]) # [1,4,2]ltrf_off 
tensor([[[[-3., -2.,  5.,  4.], # a 点到第一个框的左边、上边、右边、下边的偏移[ 1.,  1.,  2.,  4.]],  # a 点到第二个框的左边、上边、右边、下边的偏移[[ 1., -2.,  1.,  4.], # b 点到第一个框的左边、上边、右边、下边的偏移[ 5.,  1., -2.,  4.]],[[-3.,  2.,  5.,  0.],[ 1.,  5.,  2.,  0.]],[[ 1.,  2.,  1.,  0.],[ 5.,  5., -2.,  0.]]]])reg_targets1 
tensor([[ 1.,  1.,  2.,  4.], # a 点 第二个框[ 1., -2.,  1.,  4.], # b 点 第一个框[-3.,  2.,  5.,  0.], # c 点 第一个框[ 1.,  2.,  1.,  0.]])# d 点 第一个框# torch.Size([4, 4])reg_targets2 tensor([[[ 1.,  1.,  2.,  4.],[ 1., -2.,  1.,  4.],[-3.,  2.,  5.,  0.],[ 1.,  2.,  1.,  0.]]]) # torch.Size([1, 4, 4])
'''

5、 目标的分类

给a,b,c,d四个点分配类别

# 设置classes = torch.tensor([[100,200]])
classes = torch.broadcast_tensors(classes[:, None, :], areas.long())[0]  # [batch_size,h*w,m]
cls_targets = classes[torch.zeros_like(areas, dtype=torch.bool).scatter_(-1, areas_min_ind.unsqueeze(dim=-1), 1) ]
cls_targets = torch.reshape(cls_targets, (batch_size, -1, 1))  # [batch_size,h*w,1]``````pythonclasses = torch.broadcast_tensors(classes[:, None, :], areas.long())[0]  # [batch_size,h*w,m]print("class",classes,classes.shape)cls_targets = classes[torch.zeros_like(areas, dtype=torch.bool).scatter_(-1, areas_min_ind.unsqueeze(dim=-1), 1)]print(torch.zeros_like(areas, dtype=torch.bool).scatter_(-1, areas_min_ind.unsqueeze(dim=-1), 1))print("cls_targets1",cls_targets,cls_targets.shape)cls_targets = torch.reshape(cls_targets, (1, -1, 1))  # [batch_size,h*w,1]print("cls_targets",cls_targets,cls_targets.shape)
'''
class 
tensor([[[100, 200],[100, 200],[100, 200],[100, 200]]]) torch.Size([1, 4, 2])cls_targets1 
tensor([200, 100, 100, 100]) torch.Size([4])cls_targets 
tensor([[[200], # a点属于第二个框,的类别200[100], # b点属于第一个框,的类别100[100], # c点。。。。。。[100]]]) torch.Size([1, 4, 1]) [batch_size,h*w,1]'''

6、 center-ness

在这里插入图片描述
越靠边,cneterness越小。

	left_right_min = torch.min(reg_targets[..., 0], reg_targets[..., 2])  # [batch_size,h*w]print("reg_trargets[...,0]",reg_targets[..., 0],reg_targets[..., 2])left_right_max = torch.max(reg_targets[..., 0], reg_targets[..., 2])top_bottom_min = torch.min(reg_targets[..., 1], reg_targets[..., 3])top_bottom_max = torch.max(reg_targets[..., 1], reg_targets[..., 3]) cnt_targets = (((left_right_min * top_bottom_min) / (left_right_max * top_bottom_max + 1e-10)).sqrt().unsqueeze(dim=-1))  # [batch_size,h*w,1]
reg_targets  a,b,c,d四个点与对应框的 偏移量。
tensor([[[ 1.,  1.,  2.,  4.],[ 1., -2.,  1.,  4.],[-3.,  2.,  5.,  0.],[ 1.,  2.,  1.,  0.]]]) # torch.Size([1, 4, 4])tensor([[ 1.,  1., -3.,  1.]]) tensor([[2., 1., 5., 1.]])
left_right_min tensor([[ 1.,  1., -3.,  1.]])
left_right_max tensor([[2., 1., 5., 1.]])
top_bottom_min tensor([[ 1., -2.,  0.,  0.]])
top_bottom_max tensor([[4., 4., 2., 2.]])cnt_targets:
tensor([[[0.3536],[   nan],[-0.0000],[0.0000]]]) torch.Size([1, 4, 1])

7、 确定最后的结果

		assert reg_targets.shape == (batch_size, h_mul_w, 4)assert cls_targets.shape == (batch_size, h_mul_w, 1)assert cnt_targets.shape == (batch_size, h_mul_w, 1)# process neg coordsmask_pos_2 = mask_pos.long().sum(dim=-1)  # [batch_size,h*w]# num_pos=mask_pos_2.sum(dim=-1)# assert num_pos.shape==(batch_size,)mask_pos_2 = mask_pos_2 >= 1assert mask_pos_2.shape == (batch_size, h_mul_w)cls_targets[~mask_pos_2] = 0  # [batch_size,h*w,1]cnt_targets[~mask_pos_2] = -1reg_targets[~mask_pos_2] = -1return cls_targets, cnt_targets, reg_targets
mask_pos--> 
tensor([[[False,  True],  # 只有a点在第二个框在这个fpn这个level, 同时满足这三个条件[False, False],[False, False],[False, False]]])mask_pos2--> 
# mask_pos_2 = mask_pos.long().sum(dim=-1)  # [batch_size,h*w]
tensor([[1, 0, 0, 0]]) torch.Size([1, 4]) # 按照列相加,第一列+第二列
# mask_pos_2 = mask_pos_2 >= 1
mask_pos_2-->  # 看特征点是否同时存在于多个满足条件
tensor([[ True, False, False, False]]) # 【1,4】print(cls_targets)
print(cnt_targets)
print(reg_targets)#将非 positive location的地方设置成 cls设置成0 ,reg_targets 设置成对应的-1cls_targets[~mask_pos_2] = 0  # [batch_size,h*w,1]
cnt_targets[~mask_pos_2] = -1
reg_targets[~mask_pos_2] = -1cls_targets 
tensor([[[200], # a点属于第二个框,的类别200[100], # b点属于第一个框,的类别100[100], # c点。。。。。。[100]]]) torch.Size([1, 4, 1]) [batch_size,h*w,1]
tensor([[[200],[  0],[  0],[  0]]])cnt_targets:
tensor([[[0.3536],[   nan],[-0.0000],[0.0000]]]) torch.Size([1, 4, 1])         
tensor([[[ 0.3536],[-1.0000],[-1.0000],[-1.0000]]])reg_targets2 
tensor([[[ 1.,  1.,  2.,  4.],[ 1., -2.,  1.,  4.],[-3.,  2.,  5.,  0.],[ 1.,  2.,  1.,  0.]]]) # torch.Size([1, 4, 4])
tensor([[[ 1.,  1.,  2.,  4.],[-1., -1., -1., -1.],[-1., -1., -1., -1.],[-1., -1., -1., -1.]]])

至此呢,经过层层限制,能够找到符合三个条件的 特征点,例如,本案例为 a点,符合第二个框。并给出a点对应的 类别-200;cnt值-0。3536;偏移量【1,1,2,4】

值的注意的是,满足三个条件为正样本,cnt是计算所有正样本的 centerness值,后续为了抑制低质量的正样本,根据cnterness的值计算了一个loss。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/140300.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

编程艺术之源:深入了解设计模式和设计原则

深入了解设计模式和设计原则 一、认识设计模式1.1、设计模式是什么&#xff1f;1.2、设计模式是怎么来的&#xff1f;1.3、设计模式解决了什么问题&#xff1f; 二、设计模式的基础2.1、面向对象思想2.2、设计原则 三、如何学习设计模式3.1、明确目的3.2、学习步骤 总结 一、认…

Linux服务器从零开始训练 RT-DETR 改进项目 (Ultralytics) 教程,改进RTDETR算法(包括使用训练、验证、推理教程)

手把手从零开始训练 RT-DETR 改进项目 (Ultralytics版本) 教程,改进RTDETR算法 本文以Linux服务器为例:从零开始使用Linux训练 RT-DETR 算法项目 《芒果剑指 RT-DETR 目标检测算法 改进》 适用于芒果专栏改进RT-DETR算法 文章目录 百度 RT-DETR 算法介绍改进网络代码汇总第…

CAD Exchanger SDK 有什么新内容?

CAD 交换器 3.23.0&#xff0c;2023 年 11 月强调&#xff1a;- 添加了新版本格式的导入&#xff1a;Autodesk Inventor 2023 和 2024、NX 2306。- 文档经过重大修改&#xff0c;使其更易于导航。它也是现在包含有关 SDK、Web Toolkit 和 Manufacturing Toolkit 的全面信息&…

SQL 存储过程优化

问题&#xff1a;一个复杂的6个表的left jion 语句&#xff0c;发现设置为定时任务后最高时长为18分钟 1、原因分析&#xff1a;对复杂SQL 进行拆分验证 发现是合同明细表和 产品表的left jion 时间过长&#xff0c;发现 合同明细表每天为3w条&#xff0c;之前做过优化 对每个…

(1)(1.14) LightWare SF10/SF11激光雷达

文章目录 前言 1 串行连接 2 I2C 连接 3 参数说明 前言 Lightware SF20 和 LW20 是体积小、测距远&#xff08;100m&#xff09;、精度高的测距仪。有两种型号&#xff0c;LW20/Ser 使用串行接口&#xff0c;LW20/I2C 使用 I2C 接口。 1 串行连接 对于串行连接&#xff0…

软件开发项目文档系列之十六如何撰写系统运维方案

前言 项目运维方案是为了确保项目的稳定运行和可持续发展而制定的指导性文档。本文将详细介绍项目运维方案的各个方面&#xff0c;包括硬件和软件基础设施、监控和警报、备份和恢复、安全性、团队组织和沟通等方面。本博客将提供示例和最佳实践&#xff0c;以帮助您更好地理解…

一些分享| 在线笔记、GIF图片生成方法

文章目录 在线笔记视频转GIF 本片博客旨在挖掘一些好用且免费的在线平台&#xff0c;持续更新中~ 正所谓科技解放双手&#xff0c;使用在线平台可以方便快捷地学习办公&#xff0c;节省时间。 在线笔记 语雀 https://www.yuque.com/dashboard 语雀是笔者用得最长最久的平台了…

Leetcode—102.二叉树的层序遍历【中等】

2023每日刷题&#xff08;二十四&#xff09; Leetcode—102.二叉树的层序遍历 C语言BFS实现代码 /*** Definition for a binary tree node.* struct TreeNode {* int val;* struct TreeNode *left;* struct TreeNode *right;* };*/ /*** Return an array of arr…

Springboot项目部署及多环境开发

一、项目部署 我们之前写的代码都是部署在本地的tomcat上&#xff0c;别人是无法访问我们写的程序的。在实际开发中&#xff0c;我们都要将开发完毕的项目部署到公司的服务器上。 我们的代码需要经过编译打包生成一个jar包&#xff0c;这个过程需要借助一个插件来实现。 创建sp…

【微软技术栈】C#.NET 如何使用本地化的异常消息创建用户定义的异常

本文内容 创建自定义异常创建本地化异常消息 在本文中&#xff0c;你将了解如何通过使用附属程序集的本地化异常消息创建从 Exception 基类继承的用户定义异常。 一、创建自定义异常 .NET 包含许多你可以使用的不同异常。 但是&#xff0c;在某些情况下&#xff0c;如果它们…

STL简介+浅浅了解string——“C++”

各位CSDN的uu们好呀&#xff0c;终于到小雅兰的STL的学习了&#xff0c;下面&#xff0c;让我们进入CSTL的世界吧&#xff01;&#xff01;&#xff01; 1. 什么是STL 2. STL的版本 3. STL的六大组件 4. STL的重要性 5. 如何学习STL 6.STL的缺陷 7.为什么要学习string类 …

pinpoint监控tomcat应用,页面显示No data collected

pinpoint安装部署教程大家都可以搜到。这里就不说了。单说一下 页面没有数据的情况。 部署环境&#xff0c;pinpoint安装部署在A服务器上。现在是在C、D、E、F……linux机器上安装pinpoint-agnet 1. 将文件 pinpoint-agent-1.8.5.tar.gz 上传到 服务器C、D、E、F…… 2. 解压…

第十八章DOM操作控制

DOM操作分类&#xff1a; jQuery中的DOM操作 一。设置和获取样式值 1.追加样式 addClass&#xff1a;追加CSS效果 removeClass&#xff1a;去除CSS内容 2.切换样式 3.判断是否含有指定样式&#xff1a;判断的是布尔类型的值 二。内容操作&#xff1a; 1.HTML代码操作 2.TEXT代…

【算法与设计模式】

一、数据结构与算法 1、算法性能评估 时间复杂度、空间复杂度 2、数据结构 数组与列表 队列 堆栈 链表 二叉树 多叉树 递归算法 二、设计模式 1、单例 &#xff08;1&#xff09;GIL&#xff1a;线程互斥锁。保证同一时刻只有一个线程在进行。 &#xff08;2&#xff09…

Git GUI、SSH协议和IDEA中的Git使用详解

目录 前言 一、Git GUI的使用 1. 什么是Git GUI 2. 常见的Git GUI工具 3.使用 4.使用Git GUI工具的优缺点 优点&#xff1a; 缺点&#xff1a; 二、SSH协议 1.什么是SSH协议 2.SSH的主要特点和作用 3.SSH密钥认证的原理和流程 4. SSH协议的使用 三、IEDA使用git …

js随机生成颜色

封装一个函数 返回一个随机颜色 不传参数或者传true返回十六进制&#xff0c; 传false返回rgb模式 script>function Random(n, m) {if (n > m) {let temp nn mm temp}return Math.floor(Math.random() * (m - n 1)) n}function getRandomColor(flag true) {if (fl…

Linux常用命令——bzip2recover命令

在线Linux命令查询工具 bzip2recover 恢复被破坏的.bz2压缩包中的文件 补充说明 bzip2recover命令可用于恢复被破坏的“.bz2”压缩包中的文件。 bzip2是以区块的方式来压缩文件&#xff0c;每个区块视为独立的单位。因此&#xff0c;当某一区块损坏时&#xff0c;便可利用b…

桌面图标设置-将“我的电脑”、“控制面板”添加到桌面

桌面图标设置 1、将“我的电脑”、“控制面板”添加到桌面 桌面鼠标右键-个性化-主题-桌面图标设置-勾选”计算机“、”回收站“、”控制面板“-应用-确定-桌面鼠标右键-排序-名称

数据结构 队列(C语言实现)

目录 1.队列的概念及结构2.队列的代码实现 正文开始前给大家推荐个网站&#xff0c;前些天发现了一个巨牛的 人工智能学习网站&#xff0c; 通俗易懂&#xff0c;风趣幽默&#xff0c;忍不住分享一下给大家。 点击跳转到网站。 1.队列的概念及结构 队列&#xff1a;只允许在…

力扣第516题 最长回文子序列 c++ 动态规划 附Java代码 注释版

题目 516. 最长回文子序列 中等 相关标签 字符串 动态规划 给你一个字符串 s &#xff0c;找出其中最长的回文子序列&#xff0c;并返回该序列的长度。 子序列定义为&#xff1a;不改变剩余字符顺序的情况下&#xff0c;删除某些字符或者不删除任何字符形成的一个序列。…