YOLOX源码之 Label Assignment

网络结构没什么好讲的,backbone、neck、head组成,backbone采用的cspdarknet,neck采用的pafpn,head是decoupled head结构。这里主要讲一下label assignment的具体实现,yolox中采用了simota,是ota的简化版本。

实现中标签分配以及计算损失部分是在yolo_head.py中,连带着head的网络层一起的,这里也顺带一起讲了。

首先forward函数的输入xin是neck的输出,当输入shape为(4,3,416,416)时,xin的shape为[(4,128,52,52),(4,256,26,26),(4,512,13,13)],对应8,16,32三种不同stride的输出特征图。

接下里的for循环是分别对三个特征图进行head部分网络层的forward,并计算对应的grids,grids具体是什么后面会讲。以stride=8对应的大小为(4,128,52,52)的特征图为例,self.stems[k]是一层1x1卷积,然后分类分支cls_conv和回归分支reg_conv都是2层3x3卷积,self.cls_preds[k]得到最终的分类输出shape为(b,num_classes,52,52),self.reg_preds[k]得到最终的回归输出shape为(b,4,52,52),self.obj_preds[k]得到最终的objectiveness输出shape为(b,1,52,52)。这里b=4,num_classes=16。

接下来将三个输出torch.cat得到输出shape为(4,21,52,52)。接下来函数self.get_output_and_grid()得到网格坐标grid和解码后的输出output。

代码如下

def get_output_and_grid(self, output, k, stride, dtype):# (4,21,52,52)grid = self.grids[k]batch_size = output.shape[0]n_ch = 5 + self.num_classeshsize, wsize = output.shape[-2:]if grid.shape[2:4] != output.shape[2:4]:yv, xv = meshgrid([torch.arange(hsize), torch.arange(wsize)])grid = torch.stack((xv, yv), 2).view(1, 1, hsize, wsize, 2).type(dtype)  # (1,1,52,52,2), 先按行后按列,每个像素点的坐标self.grids[k] = gridoutput = output.view(batch_size, 1, n_ch, hsize, wsize)  # (4,1,21,52,52)output = output.permute(0, 1, 3, 4, 2).reshape(batch_size, hsize * wsize, -1)  # (4,2704,21)grid = grid.view(1, -1, 2)  # (1,2704,2)output[..., :2] = (output[..., :2] + grid) * strideoutput[..., 2:4] = torch.exp(output[..., 2:4]) * stridereturn output, grid

self.grids是三个torch.Size([1])的列表,所以会进入到line8的if中。hsize和wsize分别是特征图的高和宽这里都是52,meshgrid返回的yv和xv分别是特征图每个像素点对应的y坐标和x坐标,如下所示

tensor([[ 0,  0,  0,  ...,  0,  0,  0],                                                                                                                                [ 1,  1,  1,  ...,  1,  1,  1],                                                                                                                                [ 2,  2,  2,  ...,  2,  2,  2],                                                                                                                                ...,                                                                                                                                                           [49, 49, 49,  ..., 49, 49, 49],                                                                                                                                [50, 50, 50,  ..., 50, 50, 50],                                                                                                                                [51, 51, 51,  ..., 51, 51, 51]])                                                                                                                               
tensor([[ 0,  1,  2,  ..., 49, 50, 51],                                                                                                                                [ 0,  1,  2,  ..., 49, 50, 51],                                                                                                                                [ 0,  1,  2,  ..., 49, 50, 51],                                                                                                                                ...,                                                                                                                                                           [ 0,  1,  2,  ..., 49, 50, 51],                                                                                                                                [ 0,  1,  2,  ..., 49, 50, 51],                                                                                                                                [ 0,  1,  2,  ..., 49, 50, 51]])

然后将xy坐标stack得到每个点的xy坐标,shape为(1,1,52,52,2),按先行后列的顺序,如下

tensor([[[[[ 0.,  0.],                                                                                                                                                 [ 1.,  0.],                                                                                                                                                 [ 2.,  0.],                                                                                                                                                 ...,                                                                                                                                                        [49.,  0.],                                                                                                                                                 [50.,  0.],                                                                                                                                                 [51.,  0.]],                                                                                                                                                [[ 0.,  1.],                                                                                                                                                 [ 1.,  1.],                                                                                                                                                 [ 2.,  1.],                                                                                                                                                 ...,                                                                                                                                                        [49.,  1.],                                                                                                                                                 [50.,  1.],                                                                                                                                                 [51.,  1.]],                                                                                                                                                                                                                                                                                            ...,                                                                                                                                                                                                                                                                                                      [[ 0., 50.],                                                                                                                                                 [ 1., 50.],                                                                                                                                                 [ 2., 50.],                                                                                                                                                 ...,                                                                                                                                                        [49., 50.],                                                                                                                                                 [50., 50.],                                                                                                                                                 [51., 50.]],                                                                                                                                                [[ 0., 51.],                                                                                                                                                 [ 1., 51.],                                                                                                                                                 [ 2., 51.],                                                                                                                                                 ...,                                                                                                                                                        [49., 51.],                                                                                                                                                 [50., 51.],                                                                                                                                                 [51., 51.]]]]], device='cuda:0', dtype=torch.float16)

然后将output和grid分别view调整维度,output中每个点对应一个预测框,output[..., :2]是预测框中心点相对于每个点的偏移,因此line8加上每个点的坐标grid并乘以stride还原回原图上得到原图上真实预测框的中心点坐标。line9则是通过 \(e^{t}\) 并乘以stride得到原图上真实预测框的宽高。 

在得到原图上预测框的坐标以及类别和objectiveness后,接下来就是进行label assignment并计算loss,具体实现都在self.get_losses()中。其中输入outputs是将坐标还原到原图中的三个特征图的输出并concat得到的,shape为(b, 3549, 21),3549=52x52+26x26+13x13,21=4+1+16。

在函数get_losses()中,调用self.get_assignments进行标签分配,这里使用的方法是simota。关于simota和ota的原理可参考OTA: Optimal Transport Assignment for Object Detection 原理与代码解读-CSDN博客和https://blog.csdn.net/ooooocj/article/details/136569249。get_assignments()的完整实现如下

@torch.no_grad()
def get_assignments(self,batch_idx,num_gt,gt_bboxes_per_image,  # (17,4)gt_classes,  # (17)bboxes_preds_per_image,  # (3549,4)expanded_strides,  # (1,3549)x_shifts,  # (1,3549)y_shifts,  # (1,3549)cls_preds,  # (4,3549,16)obj_preds,  # (4,3549,1)mode="gpu",
):if mode == "cpu":print("-----------Using CPU for the Current Batch-------------")gt_bboxes_per_image = gt_bboxes_per_image.cpu().float()bboxes_preds_per_image = bboxes_preds_per_image.cpu().float()gt_classes = gt_classes.cpu().float()expanded_strides = expanded_strides.cpu().float()x_shifts = x_shifts.cpu()y_shifts = y_shifts.cpu()fg_mask, geometry_relation = self.get_geometry_constraint(gt_bboxes_per_image,expanded_strides,x_shifts,y_shifts,)  # (3549), (17,357)# fg_mask中True位置的anchor point至少在一个gt box的center area内,后续会用来进行label assignment。而不在fg_mask中False位置的anchor point# 不在任意一个gt box的center area内。bboxes_preds_per_image = bboxes_preds_per_image[fg_mask]  # (357,4)cls_preds_ = cls_preds[batch_idx][fg_mask]  # (357,16)obj_preds_ = obj_preds[batch_idx][fg_mask]  # (357,1)num_in_boxes_anchor = bboxes_preds_per_image.shape[0]  # 357if mode == "cpu":gt_bboxes_per_image = gt_bboxes_per_image.cpu()bboxes_preds_per_image = bboxes_preds_per_image.cpu()pair_wise_ious = bboxes_iou(gt_bboxes_per_image, bboxes_preds_per_image, False)  # (17,357)gt_cls_per_image = (F.one_hot(gt_classes.to(torch.int64), self.num_classes).float())  # (17,16)pair_wise_ious_loss = -torch.log(pair_wise_ious + 1e-8)  # (17,357)if mode == "cpu":cls_preds_, obj_preds_ = cls_preds_.cpu(), obj_preds_.cpu()with torch.cuda.amp.autocast(enabled=False):cls_preds_ = (cls_preds_.float().sigmoid_() * obj_preds_.float().sigmoid_()).sqrt()pair_wise_cls_loss = F.binary_cross_entropy(cls_preds_.unsqueeze(0).repeat(num_gt, 1, 1),  # (357,16)->(1,357,16)->(17,357,16)gt_cls_per_image.unsqueeze(1).repeat(1, num_in_boxes_anchor, 1),  # (17,16)->(17,1,16)->(17,357,16)reduction="none").sum(-1)  # (17,357), 共16个类别,每个类单独计算bcedel cls_preds_cost = (pair_wise_cls_loss+ 3.0 * pair_wise_ious_loss+ float(1e6) * (~geometry_relation)  # center area之外的anchor point对应的cost加上一个很大的值来过滤)  # (17,357)(num_fg,  # 22gt_matched_classes,  # (22)pred_ious_this_matching,  # (22)matched_gt_inds,  # (22)) = self.simota_matching(cost, pair_wise_ious, gt_classes, num_gt, fg_mask)del pair_wise_cls_loss, cost, pair_wise_ious, pair_wise_ious_lossif mode == "cpu":gt_matched_classes = gt_matched_classes.cuda()fg_mask = fg_mask.cuda()pred_ious_this_matching = pred_ious_this_matching.cuda()matched_gt_inds = matched_gt_inds.cuda()return (gt_matched_classes,fg_mask,  # (3549)pred_ious_this_matching,matched_gt_inds,num_fg,)

在ota中使用了center prior,即只有gt box中心有限区域内的anchor point作为正样本的candidate,而不是整个gt box内所有的anchor point都作为正样本的候选。函数get_geometry_constraint就是实现这个的

def get_geometry_constraint(self, gt_bboxes_per_image, expanded_strides, x_shifts, y_shifts,
):"""Calculate whether the center of an object is located in a fixed range ofan anchor. This is used to avert inappropriate matching. It can also reducethe number of candidate anchors so that the GPU memory is saved."""expanded_strides_per_image = expanded_strides[0]  # (3549)x_centers_per_image = ((x_shifts[0] + 0.5) * expanded_strides_per_image).unsqueeze(0)  # (1,3549)y_centers_per_image = ((y_shifts[0] + 0.5) * expanded_strides_per_image).unsqueeze(0)  # (1,3549)# in fixed centercenter_radius = 1.5  # 这里有可能center area区域比原目标还大center_dist = expanded_strides_per_image.unsqueeze(0) * center_radius  # (1,3549)gt_bboxes_per_image_l = (gt_bboxes_per_image[:, 0:1]) - center_dist  # (17,1) -> (17,3549)gt_bboxes_per_image_r = (gt_bboxes_per_image[:, 0:1]) + center_dist  # (17,3549)gt_bboxes_per_image_t = (gt_bboxes_per_image[:, 1:2]) - center_dist  # (17,3549)gt_bboxes_per_image_b = (gt_bboxes_per_image[:, 1:2]) + center_dist  # (17,3549)c_l = x_centers_per_image - gt_bboxes_per_image_l  # (1,3549)-(17,3549) -> (17,3549)c_r = gt_bboxes_per_image_r - x_centers_per_imagec_t = y_centers_per_image - gt_bboxes_per_image_tc_b = gt_bboxes_per_image_b - y_centers_per_imagecenter_deltas = torch.stack([c_l, c_t, c_r, c_b], 2)  # (17,3549,4)is_in_centers = center_deltas.min(dim=-1).values > 0.0  # (17,3549)anchor_filter = is_in_centers.sum(dim=0) > 0  # (3549), 一共3549个anchor point, 对应位置为False, 说明这个anchor point不在任意一个gt box的center area内geometry_relation = is_in_centers[:, anchor_filter]  # (17,357), anchor_filter.sum()==357,表明某个anchor point至少在一个gt box的center area内return anchor_filter, geometry_relation

最终返回的anchor_filter是一个shape为(3549, )的tensor,值全为True或False。前面说过三个特征图一共3549个anchor point,值为False对应的anchor point不在任意一个gt box的center area内,后续进行标签分配时只从值为True的anchor point中挑选。当我用自己的数据调试时,另一个输出geometry_relation的shape为(17, 357),17是图中gt的数量,357是anchor_filter中值为True的anchor point的数量,geometry_relation表示每个gt的中心区域内对应的anchor point。

然后用fg_mask也就是anchor_filter挑选出候选的正样本,然后计算ota的cost matrix,cost矩阵包括分类损失以及回归损失,注意分类的预测要取sigmoid后并与obj预测相乘再与gt计算交叉熵损失,最后加上float(1e6) * (~geometry_relation)是对每个gt中心区域外的anchor加上一个特别大的cost,从而过滤它们。

在得到cost矩阵后,就是通过simota进行标签分配的过程了,具体实现在函数simota_matching中

def simota_matching(self, cost, pair_wise_ious, gt_classes, num_gt, fg_mask):# (17,357),(17,357),(17),17,(3549)matching_matrix = torch.zeros_like(cost, dtype=torch.uint8)  # (17,357)n_candidate_k = min(10, pair_wise_ious.size(1))  # 这里10就是文章中dynamic_k中的qtopk_ious, _ = torch.topk(pair_wise_ious, n_candidate_k, dim=1)  # (17,10)dynamic_ks = torch.clamp(topk_ious.sum(1).int(), min=1)  # (17)# tensor([3, 1, 1, 1, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1], device='cuda:0', dtype=torch.int32)# 每个gt选择q个最大iou值,相加取整作为为该gt分配的anchor point的个数for gt_idx in range(num_gt):_, pos_idx = torch.topk(cost[gt_idx], k=dynamic_ks[gt_idx], largest=False)  # 选择cost最小的dynamic k个anchor point作为分配的正样本,代替原始OTA中的sinkhorn算法matching_matrix[gt_idx][pos_idx] = 1del topk_ious, dynamic_ks, pos_idxanchor_matching_gt = matching_matrix.sum(0)  # (357)# deal with the case that one anchor matches multiple ground-truthsif anchor_matching_gt.max() > 1:multiple_match_mask = anchor_matching_gt > 1_, cost_argmin = torch.min(cost[:, multiple_match_mask], dim=0)  # 当一个anchor point匹配多个gt时,选择cost最小的gt作为匹配的结果matching_matrix[:, multiple_match_mask] *= 0matching_matrix[cost_argmin, multiple_match_mask] = 1fg_mask_inboxes = anchor_matching_gt > 0  # (357), pos anchor point的indexnum_fg = fg_mask_inboxes.sum().item()# num_fg==22, anchor_matching_gt.sum()==tensor(22, device='cuda:0')# 当if anchor_matching_gt.max() > 1成立时,num_fg > matching_matrix.sum().item()# fg_mask.sum().item() == 357fg_mask[fg_mask.clone()] = fg_mask_inboxes# fg_mask.sum().item() == 22# 更新fg_mask,本来fg_mask中有357个anchor point初步过滤后再gt center area内,然后经过simota第二次匹配找到pos anchor point# 注意这里[]内fg_mask.clone()的作用,是找到那357个的值,然后用fg_mask_inboxes替换# 这里fg_mask更新后,不用return,外面的fg_mask也更新了# 这里的fg_mask就是所有3549个anchor中哪几个anchor是正样本,正样本处的值为1matched_gt_inds = matching_matrix[:, fg_mask_inboxes].argmax(0)# matched_gt_inds == tensor([7, 7, 8, 2, 1, 9, 4, 4, 10, 10, 3, 13, 5, 14, 12, 6, 15, 16, 11, 0, 0, 0], device='cuda:0')# 每个pos anchor匹配到了第几个gt的index# print(gt_classes) == tensor([6, 5, 12, 12, 12, 5, 12, 12, 5, 12, 12, 5, 5, 5, 5, 12, 12], device='cuda:0', dtype=torch.float16)gt_matched_classes = gt_classes[matched_gt_inds]  # 每个pos anchor匹配到的gt的实际类别索引# print(gt_matched_classes) == tensor([12, 12, 5, 12, 5, 12, 12, 12, 12, 12, 12, 5, 5, 5, 5, 12, 12, 12, 5, 6, 6, 6.], device='cuda:0', dtype=torch.float16)pred_ious_this_matching = (matching_matrix * pair_wise_ious).sum(0)[fg_mask_inboxes]# 这里sum(0)沿列求和,一列只有1个值大于0,因为上面处理完后,一个anchor只能匹配一个gt。但一行可以有多个大于0的值,即1个gt可以和多个anchor匹配return num_fg, gt_matched_classes, pred_ious_this_matching, matched_gt_inds

simota和原本的ota的区别是,在得到cost矩阵后,ota通过sinkhorn算法进行匹配,而simota则直接选择topk个cost最小的anchor作为正样本,和最早的faster rcnn中的topk相似,只不过那里是选择iou最小,这里是选择cost最小,这里的cost不仅考虑了iou还考虑了分类损失和center prior。另外这里的k不是认为设置的固定值,而是dynamic k,具体是根据先选择q个iou最大的anchor(这里q仍然是人工设定的代码中取10),然后这10个iou求和取整得到k值。

n_candidate_k = min(10, pair_wise_ious.size(1))  # 这里10就是文章中dynamic_k中的q
topk_ious, _ = torch.topk(pair_wise_ious, n_candidate_k, dim=1)  # (17,10)
dynamic_ks = torch.clamp(topk_ious.sum(1).int(), min=1)  # (17)

一个gt可以匹配多个anchor,但一个anchor只能匹配一个gt,根据上面的规则选择cost最小的k个anchor后如果存在一个anchor匹配多个gt的情况,选择cost最小对应的gt作为匹配结果。

样本分配完后,就是计算损失了,这里没什么好讲的,回归损失采用的iou loss,分类损失和obj损失都是bce loss。yolox中作者在最后15个epoch关闭了mosaic数据增强,并添加了额外的L1 loss来增加回归的精度,这里L1 loss就是在特征图上计算的,预测就是特征图的原始输出,没有像iou loss一样加上grid并乘以stride映射会原图,这里target是将label反向映射到特征图上。

def get_l1_target(self, l1_target, gt, stride, x_shifts, y_shifts, eps=1e-8):l1_target[:, 0] = gt[:, 0] / stride - x_shiftsl1_target[:, 1] = gt[:, 1] / stride - y_shiftsl1_target[:, 2] = torch.log(gt[:, 2] / stride + eps)l1_target[:, 3] = torch.log(gt[:, 3] / stride + eps)return l1_target

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/23109.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

uniapp小程序开发 | 从零实现一款影视类app (后台接口实现,go-zero微服务的使用)

uniapp小程序开发实战系列,完整介绍从零实现一款影视类小程序。包含小程序前端和后台接口的全部完整实现。系列连载中,喜欢的可以点击收藏。 该篇着重介绍获取轮播图后台接口和获取正在热映电影的两个后台接口的实现。 后台服务使用golang,…

MySQL—多表查询—自连接

一、引言 自连接,顾名思义就是自己连接自己。 自连接的语法结构: 表 A 别名 A join 表 A 别名 B ON 条件 ...; 注意: 1、这种语法有一个关键字:join 2、自连接查询可以是内连接的语法,可以是外连接的语法&#xff08…

【游戏】Goc赚钱模拟器1.0版

Hello!大家好,我是学霸小羊,今天分享一个Goc游戏。 //注:以下代码为Goc原创代码。 大家可以在下面网址写入代码www.51goc.com慧通教育http://www.51goc.com注:Goc编辑器路径: www.51goc.com ➡ 登录 ➡ 游客登陆 ➡…

Three.js加入到可视化大屏,看看能否惊艳到你?

three.js 在可视化大屏上可以实现各种三维场景和动画效果,可以根据具体需求进行定制化开发,并结合其他技术,如数据可视化、交互设计等,实现更加丰富的可视化效果。 three.js 是一个基于 WebGL 的 JavaScript 3D 库,可…

循迹模块之循迹小车

1.TCRT5000传感器 TCRT5000传感器的红外发射二极管 不断发射红外线 1.1 当发射出的红外线没有被反射回来或被反射回来但强度不够大时, 红外接收管一直处于关断状态,此时模块的输出端为高电平,指示二极管一直处于熄灭状态 1.2 当被检测物体…

跳跃游戏二

方法一:(双指针法)此题参考跳台阶问题,题目要求求到达最后一个点的最小跳跃次数,那么我们就可以从最后一个往前推,先看谁能离得最远,并且能跳到最后一个。假设i位置是离最后一个位置最远&#x…

AI引领天文新篇章:中科院发现107例中性碳吸收线,揭示宇宙深邃奥秘

在浩渺无垠的宇宙中,探索未知的天文现象一直是科学家们不懈的追求。近日,中科院上海天文台的研究团队在《天文物理杂志》(MNRAS)上发布了重要研究成果:利用人工智能技术,成功探测到了107例中性碳吸收线&…

【新书上市】图像画质算法与底层视觉技术

图书主页:https://book.douban.com/subject/36895899/ 购买链接:https://item.jd.com/10105601481762.html 内容介绍 本书主要介绍了图像画质相关的各类底层视觉任务及其相关算法,重点讲解了去噪、超分辨率、去雾、高动态范围、图像合成与图…

Python语法详解module3(组合数据类型列表、元组、字典、集合详细用法)

目录 一、列表列表的创建多维列表列表的访问和修改列表的添加和删除列表的遍历使用 for 循环遍历使用 while 循环遍历同时遍历索引和元素列表推导式 常用的列表函数len()sort()reverse()index()count()extend()clear() 二、元组创建元组访问元组元素元组的不可变性元组的优点元…

Scalable Diffusion Models with Transformers

Metahttps://github.com/facebookresearch/DiT/tree/main?tabreadme-ov-file 问题引入 transformer架构的latent diffusion model,有较好的延展性并是sota; methods patchify:原图片 I ∈ R H W 3 I\in\mathbb{R}^{H\times W\times 3…

2024.06.05【读书笔记】丨生物信息学与功能基因组学(第十一章 分子水平的系统发生和进化 第三部分)【AI测试版】

读书笔记三:《生物信息学与功能基因组学》第十一章第三部分 分子系统发生分析的四个步骤 在《生物信息学与功能基因组学》第十一章的第三部分中,作者详细阐述了分子系统发生分析的四个关键步骤,这些步骤构成了研究生物分子进化的基础。 第…

【微信小程序】模板语法

数据绑定 对应页面的 js 文件中 定义数据到 data 中: 在页面中使用 {{}} 语法直接使用: 事件绑定 事件触发 常用事件: 事件对象的属性列表(事件回调触发,会收到一个事件对象 event,它的详细属性如下&…

免费,C++蓝桥杯等级考试真题--第10级(含答案解析和代码)

C蓝桥杯等级考试真题--第10级 答案:D 解析:数组是一种线性数据结构,其特点是数组中的元素在内存中占据一段连续的存储空间,每个元素通过索引(下标)访问,索引起始通常是0。 数组的长度在声明时…

操作符详解

一、移位操作符 1.1左移操作 左边丢弃,右边补0 1.2右移操作 算数右移:右边丢弃,左边补原符号位 逻辑右移:右边丢弃,左边补0 int main() {int a -1;int b a >> 1;printf("b%d\n",b);return 0; } 原码…

Linux创建用户与yum安装软件

我们了解了给用户设置或者修改权限,今天了解一下如何手动创建一个用户。 一、新创用户的步骤 1、useradd创建 2、passwd设置 操作步骤: (1)/etc/passwd 添加一行 (2)/etc/shadow 添加一行 &#xff0…

厘米级精确定位,开启定位技术新时代

定位技术在当前这个科技发展时代可以说是以以前所未有的速度在发展,其中厘米级精确定位技术更是成为当前的研究热点和实际应用中的佼佼者。这项技术以其高度的精准性和广泛的应用前景,正在逐渐改变我们的生活和工作方式。接下来我们跟着深圳沧穹科技一起…

在vue项目中使用markdown-it回显markdown文本

前言 其实有很多插件都是可以用来回显markdown文本的,这个插件也是其中之一。 文档地址:markdown-it | markdown-it 中文文档 这个文档在vue2和vue3里面都可以使用,所以还是比较推荐的 使用 安装 npm install markdown-it --save 应用 <template><div><…

微服务开发与实战Day02 - Docker

一、Docker快速入门 快速构建、运行、管理应用的工具 安装部署教程&#xff1a;Docs 1. 部署MySQL 测试连接&#xff1a; 镜像和容器 当我们利用Docker安装应用时&#xff0c;Docker会自动搜索并下载应用镜像&#xff08;image&#xff09;。镜像不仅包含应用本身&#xff…

天润融通,荣获2024中国AI应用层创新企业

AI技术发展日新月异&#xff0c;可谓“AI一天&#xff0c;人间一年”。 从2023年到2024年&#xff0c;短短一年的时间&#xff0c;大模型技术的发展就已经逐步从追求“技术突破”转向了追求“应用落地”。如何将大模型的技术与企业的生产、运营、销售等场景结合起来&#xff0…

java版CRM客户关系管理系统源码:CRM客户关系管理系统的功能详解

CRM客户关系管理系统是一款功能全面的客户管理工具&#xff0c;旨在帮助企业和销售团队提高客户管理效率&#xff0c;优化销售流程。该系统包含多个模块&#xff0c;覆盖了从线索到回款的全流程管理&#xff0c;为用户提供了一个集成化的客户关系管理平台。 一、待办事项模块&a…