faster rcnn学习之rpn训练全过程

上篇我们讲解了rpn与fast rcnn的数据准备阶段,接下来我们讲解rpn的整个训练过程。最后 讲解rpn训练完毕后rpn的生成。

我们顺着stage1_rpn_train.pt的内容讲解。

name: "VGG_CNN_M_1024"
layer {name: 'input-data'type: 'Python'top: 'data'top: 'im_info'top: 'gt_boxes'python_param {module: 'roi_data_layer.layer'layer: 'RoIDataLayer'param_str: "'num_classes': 21"}
}
layer {name: "conv1"type: "Convolution"bottom: "data"top: "conv1"param { lr_mult: 0 decay_mult: 0 }param { lr_mult: 0 decay_mult: 0 }convolution_param {num_output: 96kernel_size: 7 stride: 2}
}
layer {name: "relu1"type: "ReLU"bottom: "conv1"top: "conv1"
}
layer {name: "norm1"type: "LRN"bottom: "conv1"top: "norm1"lrn_param {local_size: 5alpha: 0.0005beta: 0.75k: 2}
}
layer {name: "pool1"type: "Pooling"bottom: "norm1"top: "pool1"pooling_param {pool: MAXkernel_size: 3 stride: 2}
}
layer {name: "conv2"type: "Convolution"bottom: "pool1"top: "conv2"param { lr_mult: 1 }param { lr_mult: 2 }convolution_param {num_output: 256pad: 1 kernel_size: 5 stride: 2}
}
layer {name: "relu2"type: "ReLU"bottom: "conv2"top: "conv2"
}
layer {name: "norm2"type: "LRN"bottom: "conv2"top: "norm2"lrn_param {local_size: 5alpha: 0.0005beta: 0.75k: 2}
}
layer {name: "pool2"type: "Pooling"bottom: "norm2"top: "pool2"pooling_param {pool: MAXkernel_size: 3 stride: 2}
}
layer {name: "conv3"type: "Convolution"bottom: "pool2"top: "conv3"param { lr_mult: 1 }param { lr_mult: 2 }convolution_param {num_output: 512pad: 1 kernel_size: 3}
}
layer {name: "relu3"type: "ReLU"bottom: "conv3"top: "conv3"
}
layer {name: "conv4"type: "Convolution"bottom: "conv3"top: "conv4"param { lr_mult: 1 }param { lr_mult: 2 }convolution_param {num_output: 512pad: 1 kernel_size: 3}
}
layer {name: "relu4"type: "ReLU"bottom: "conv4"top: "conv4"
}
layer {name: "conv5"type: "Convolution"bottom: "conv4"top: "conv5"param { lr_mult: 1 }param { lr_mult: 2 }convolution_param {num_output: 512pad: 1 kernel_size: 3}
}
layer {name: "relu5"type: "ReLU"bottom: "conv5"top: "conv5"
}#========= RPN ============layer {name: "rpn_conv/3x3"type: "Convolution"bottom: "conv5"top: "rpn/output"param { lr_mult: 1.0 }param { lr_mult: 2.0 }convolution_param {num_output: 256kernel_size: 3 pad: 1 stride: 1weight_filler { type: "gaussian" std: 0.01 }bias_filler { type: "constant" value: 0 }}
}
layer {name: "rpn_relu/3x3"type: "ReLU"bottom: "rpn/output"top: "rpn/output"
}
layer {name: "rpn_cls_score"type: "Convolution"bottom: "rpn/output"top: "rpn_cls_score"param { lr_mult: 1.0 }param { lr_mult: 2.0 }convolution_param {num_output: 18   # 2(bg/fg) * 9(anchors)kernel_size: 1 pad: 0 stride: 1weight_filler { type: "gaussian" std: 0.01 }bias_filler { type: "constant" value: 0 }}
}
layer {name: "rpn_bbox_pred"type: "Convolution"bottom: "rpn/output"top: "rpn_bbox_pred"param { lr_mult: 1.0 }param { lr_mult: 2.0 }convolution_param {num_output: 36   # 4 * 9(anchors)kernel_size: 1 pad: 0 stride: 1weight_filler { type: "gaussian" std: 0.01 }bias_filler { type: "constant" value: 0 }}
}
layer {bottom: "rpn_cls_score"top: "rpn_cls_score_reshape"name: "rpn_cls_score_reshape"type: "Reshape"reshape_param { shape { dim: 0 dim: 2 dim: -1 dim: 0 } }
}
layer {name: 'rpn-data'type: 'Python'bottom: 'rpn_cls_score'bottom: 'gt_boxes'bottom: 'im_info'bottom: 'data'top: 'rpn_labels'top: 'rpn_bbox_targets'top: 'rpn_bbox_inside_weights'top: 'rpn_bbox_outside_weights'python_param {module: 'rpn.anchor_target_layer'layer: 'AnchorTargetLayer'param_str: "'feat_stride': 16"}
}
layer {name: "rpn_loss_cls"type: "SoftmaxWithLoss"bottom: "rpn_cls_score_reshape"bottom: "rpn_labels"propagate_down: 1propagate_down: 0top: "rpn_cls_loss"loss_weight: 1loss_param {ignore_label: -1normalize: true}
}
layer {name: "rpn_loss_bbox"type: "SmoothL1Loss"bottom: "rpn_bbox_pred"bottom: "rpn_bbox_targets"bottom: 'rpn_bbox_inside_weights'bottom: 'rpn_bbox_outside_weights'top: "rpn_loss_bbox"loss_weight: 1smooth_l1_loss_param { sigma: 3.0 }
}#========= RCNN ============layer {name: "dummy_roi_pool_conv5"type: "DummyData"top: "dummy_roi_pool_conv5"dummy_data_param {shape { dim: 1 dim: 18432 }data_filler { type: "gaussian" std: 0.01 }}
}
layer {name: "fc6"type: "InnerProduct"bottom: "dummy_roi_pool_conv5"top: "fc6"param { lr_mult: 0 decay_mult: 0 }param { lr_mult: 0 decay_mult: 0 }inner_product_param {num_output: 4096}
}
layer {name: "fc7"type: "InnerProduct"bottom: "fc6"top: "fc7"param { lr_mult: 0 decay_mult: 0 }param { lr_mult: 0 decay_mult: 0 }inner_product_param {num_output: 1024}
}
layer {name: "silence_fc7"type: "Silence"bottom: "fc7"
}

它的示意图如下: 这里借用了 http://blog.csdn.net/zy1034092330/article/details/62044941里的图。

上面Conv layers包含了五层卷积层。 接下来,对于第五层卷积层,进行了3*3的卷积操作,输出了256个通道,当然大小与卷积前的大小相同。

然后开始分别接入了cls层与regression层。对于cls层,使用1*1的卷积操作输出了18(9*2 bg/fg)个通道的feature map,大小不变。而对于regression层,也使用1*1的卷积层输出了36(4*9)个通道的feature map,大小不变。 

对于cls层后又接了一个reshape层,为什么要接这个层呢?引用参考文献[1]的话,其实只是为了便于softmax分类,至于具体原因这就要从caffe的实现形式说起了。在caffe基本数据结构blob中以如下形式保存数据:
blob=[batch_size, channel,height,width]
对应至上面的保存bg/fg anchors的矩阵,其在caffe blob中的存储形式为[1, 2*9, H, W]。而在softmax分类时需要进行fg/bg二分类,所以reshape layer会将其变为[1, 2, 9*H, W]大小,即单独“腾空”出来一个维度以便softmax分类,之后再reshape回复原状。

我们可以用python模拟一下,看如下的程序:

>>> a=np.array([[[1,2],[3,4]],[[5,6],[7,8]],[[9,10],[11,12]],[[13,14],[15,16]]])
>>> a
array([[[ 1,  2],[ 3,  4]],[[ 5,  6],[ 7,  8]],[[ 9, 10],[11, 12]],[[13, 14],[15, 16]]])
>>> a.shape
(4L, 2L, 2L)
然后由于caffe中是行优先,numpy也如此,那么reshape一下的结果如下:

>>> b=a.reshape(2,4,2)
>>> b
array([[[ 1,  2],[ 3,  4],[ 5,  6],[ 7,  8]],[[ 9, 10],[11, 12],[13, 14],[15, 16]]])

从上面可以看出reshape是把相邻通道的矩阵移到它的下面了。这样就剩下两个大的矩阵了,就可以相邻通道之间进行softmax了。 从中其实我们也能发现,对于rpn每个点的18个输出通道,前9个为背景的预测分数,而后9个为前景的预测分数。

假定softmax昨晚后,我们看看是否能够回到原先?

>>> b.reshape(4,2,2)
array([[[ 1,  2],[ 3,  4]],[[ 5,  6],[ 7,  8]],[[ 9, 10],[11, 12]],[[13, 14],[15, 16]]])
果然又回到了原始的状态。

而对于regression呢,不需要这样的操作,那么他的36个通道是不是也是如上面18个通道那样呢?即第一个9通道为dx,第二个为dy,第三个为dw,第五个是dh。还是我们比较容易想到的那种,即第一个通道是第一个盒子的回归量(dx1,dy1,dw1,dh1),第二个为(dx2,dy2,dw,2,dh2).....。待后面查看对应的bbox_targets就知道了。先留个坑。

正如图上所示,我们还需要准备一个层rpn-data。

layer {name: 'rpn-data'type: 'Python'bottom: 'rpn_cls_score'bottom: 'gt_boxes'bottom: 'im_info'bottom: 'data'top: 'rpn_labels'top: 'rpn_bbox_targets'top: 'rpn_bbox_inside_weights'top: 'rpn_bbox_outside_weights'python_param {module: 'rpn.anchor_target_layer'layer: 'AnchorTargetLayer'param_str: "'feat_stride': 16"}
}

这一层输入四个量:data,gt_boxes,im_info,rpn_cls_score,其中前三个是我们在前面说过的,

data:         1*3*600*1000
gt_boxes: N*5,                   N为groundtruth box的个数,每一行为(x1, y1, x2, y2, cls) ,而且这里的gt_box是经过缩放的。
im_info: 1*3                   (h,w,scale)

rpn_cls_score是cls层输出的18通道,shape可以看成是1*18*H*W.  

输出为4个量:rpn_labels 、rpn_bbox_targets(回归目标)、rpn_bbox_inside_weights(内权重)、rpn_bbox_outside_weights(外权重)。

通俗地来讲,这一层产生了具体的anchor坐标,并与groundtruth box进行了重叠度计算,输出了kabel与回归目标。

接下来我们来看一下文件anchor_target_layer.py 

 def setup(self, bottom, top):layer_params = yaml.load(self.param_str_)    #在第5个卷积层后的feature map上的每个点取anchor,尺度为(8,16,32),结合后面的feat_stride为16,#再缩放回原来的图像大小,正好尺度是(128,256,512),与paper一样。anchor_scales = layer_params.get('scales', (8, 16, 32))  self._anchors = generate_anchors(scales=np.array(anchor_scales))  #产生feature map最左上角的那个点对应的anchor(x1,y1,x2,y2),# 尺度为原始图像的尺度(可以看成是Im_info的宽和高尺度,或者是600*1000)。self._num_anchors = self._anchors.shape[0]   #9self._feat_stride = layer_params['feat_stride'] #16if DEBUG:print 'anchors:'print self._anchorsprint 'anchor shapes:'print np.hstack((  # 输出宽和高self._anchors[:, 2::4] - self._anchors[:, 0::4], #第2列减去第0列self._anchors[:, 3::4] - self._anchors[:, 1::4], #第3列减去第1列))self._counts = cfg.EPSself._sums = np.zeros((1, 4))self._squared_sums = np.zeros((1, 4))self._fg_sum = 0self._bg_sum = 0self._count = 0# allow boxes to sit over the edge by a small amount  self._allowed_border = layer_params.get('allowed_border', 0)    height, width = bottom[0].data.shape[-2:]   #cls后的feature map的大小if DEBUG:print 'AnchorTargetLayer: height', height, 'width', widthA = self._num_anchors   # labelstop[0].reshape(1, 1, A * height, width)     # 显然与rpn_cls_score_reshape保持相同的shape.# bbox_targetstop[1].reshape(1, A * 4, height, width)     # bbox_inside_weightstop[2].reshape(1, A * 4, height, width)# bbox_outside_weightstop[3].reshape(1, A * 4, height, width)
setup设置了top输出的shape,并且做了一些准备工作。

接下来看forward函数。

 def forward(self, bottom, top):# Algorithm:## for each (H, W) location i#   generate 9 anchor boxes centered on cell i#   apply predicted bbox deltas at cell i to each of the 9 anchors# filter out-of-image anchors# measure GT overlapassert bottom[0].data.shape[0] == 1, \'Only single item batches are supported'     # 仅仅支持一张图片# map of shape (..., H, W)height, width = bottom[0].data.shape[-2:]        # GT boxes (x1, y1, x2, y2, label)gt_boxes = bottom[1].data                          # im_infoim_info = bottom[2].data[0, :]if DEBUG:print ''print 'im_size: ({}, {})'.format(im_info[0], im_info[1])print 'scale: {}'.format(im_info[2])print 'height, width: ({}, {})'.format(height, width)print 'rpn: gt_boxes.shape', gt_boxes.shapeprint 'rpn: gt_boxes', gt_boxes# 1. Generate proposals from bbox deltas and shifted anchorsshift_x = np.arange(0, width) * self._feat_stride  shift_y = np.arange(0, height) * self._feat_stride shift_x, shift_y = np.meshgrid(shift_x, shift_y)shifts = np.vstack((shift_x.ravel(), shift_y.ravel(),shift_x.ravel(), shift_y.ravel())).transpose()# add A anchors (1, A, 4) to# cell K shifts (K, 1, 4) to get# shift anchors (K, A, 4)# reshape to (K*A, 4) shifted anchorsA = self._num_anchorsK = shifts.shape[0]all_anchors = (self._anchors.reshape((1, A, 4)) +shifts.reshape((1, K, 4)).transpose((1, 0, 2)))all_anchors = all_anchors.reshape((K * A, 4))total_anchors = int(K * A)                       # 根据左上角的anchor生成所有的anchor,这里将所有的anchor按照行排列。行:K*A(K= height*width ,A=9),列:4,且按照feature map按行优先这样排下来。# only keep anchors inside the image   #取所有在图像内部的anchorinds_inside = np.where((all_anchors[:, 0] >= -self._allowed_border) &(all_anchors[:, 1] >= -self._allowed_border) &(all_anchors[:, 2] < im_info[1] + self._allowed_border) &  # width(all_anchors[:, 3] < im_info[0] + self._allowed_border)    # height)[0]                                   if DEBUG:print 'total_anchors', total_anchorsprint 'inds_inside', len(inds_inside)# keep only inside anchorsanchors = all_anchors[inds_inside, :]if DEBUG:print 'anchors.shape', anchors.shape# label: 1 is positive, 0 is negative, -1 is dont carelabels = np.empty((len(inds_inside), ), dtype=np.float32)labels.fill(-1)# overlaps between the anchors and the gt boxes# overlaps (ex, gt)overlaps = bbox_overlaps(np.ascontiguousarray(anchors, dtype=np.float),np.ascontiguousarray(gt_boxes, dtype=np.float))argmax_overlaps = overlaps.argmax(axis=1)   #对于每一个anchor,取其重叠度最大的ground truth的序号max_overlaps = overlaps[np.arange(len(inds_inside)), argmax_overlaps]   #生成max_overlaps,(为一列)即每个anchor对应的最大重叠度gt_argmax_overlaps = overlaps.argmax(axis=0)          #对于每个类,选择其对应的最大重叠度的anchor序号gt_max_overlaps = overlaps[gt_argmax_overlaps,       np.arange(overlaps.shape[1])]  #生成gt_max_overlaps,(为一行)即每类对应的最大重叠度gt_argmax_overlaps = np.where(overlaps == gt_max_overlaps)[0]  #找到那些等于gt_max_overlaps的anchor,这些anchor将参与训练rpn# 找到所有overlaps中所有等于gt_max_overlaps的元素,因为gt_max_overlaps对于每个非负类别只保留一个# anchor,如果同一列有多个相等的最大IOU overlap值,那么就需要把其他的几个值找到,并在后面将它们# 的label设为1,即认为它们是object,毕竟在RPN的cls任务中,只要认为它是否是个object即可,即一个# 二分类问题。   (总结)# 如下设置了前景(1)、背景(0)以及不关心(-1)的anchor标签if not cfg.TRAIN.RPN_CLOBBER_POSITIVES:# assign bg labels first so that positive labels can clobber themlabels[max_overlaps < cfg.TRAIN.RPN_NEGATIVE_OVERLAP] = 0    #对于最大重叠度低于0.3的设为背景# fg label: for each gt, anchor with highest overlap  labels[gt_argmax_overlaps] = 1   # fg label: above threshold IOUlabels[max_overlaps >= cfg.TRAIN.RPN_POSITIVE_OVERLAP] = 1 if cfg.TRAIN.RPN_CLOBBER_POSITIVES:# assign bg labels last so that negative labels can clobber positiveslabels[max_overlaps < cfg.TRAIN.RPN_NEGATIVE_OVERLAP] = 0# 取前景与背景的anchor各一半,目前一批有256个anchor.# subsample positive labels if we have too manynum_fg = int(cfg.TRAIN.RPN_FG_FRACTION * cfg.TRAIN.RPN_BATCHSIZE)   #256*0.5=128fg_inds = np.where(labels == 1)[0]if len(fg_inds) > num_fg:disable_inds = npr.choice(fg_inds, size=(len(fg_inds) - num_fg), replace=False)labels[disable_inds] = -1# subsample negative labels if we have too manynum_bg = cfg.TRAIN.RPN_BATCHSIZE - np.sum(labels == 1)  #另一半256*0.5=128bg_inds = np.where(labels == 0)[0]if len(bg_inds) > num_bg:disable_inds = npr.choice(bg_inds, size=(len(bg_inds) - num_bg), replace=False)labels[disable_inds] = -1#print "was %s inds, disabling %s, now %s inds" % (#len(bg_inds), len(disable_inds), np.sum(labels == 0))#计算了所有在内部的anchor与对应的ground truth的回归量bbox_targets = np.zeros((len(inds_inside), 4), dtype=np.float32)bbox_targets = _compute_targets(anchors, gt_boxes[argmax_overlaps, :])#只有前景类内部权重才非0,参与回归bbox_inside_weights = np.zeros((len(inds_inside), 4), dtype=np.float32)bbox_inside_weights[labels == 1, :] = np.array(cfg.TRAIN.RPN_BBOX_INSIDE_WEIGHTS) #(1.0, 1.0, 1.0, 1.0)# Give the positive RPN examples weight of p * 1 / {num positives}# and give negatives a weight of (1 - p)/(num negative)    # Set to -1.0 to use uniform example weightingbbox_outside_weights = np.zeros((len(inds_inside), 4), dtype=np.float32)if cfg.TRAIN.RPN_POSITIVE_WEIGHT < 0:# uniform weighting of examples (given non-uniform sampling)num_examples = np.sum(labels >= 0)positive_weights = np.ones((1, 4)) * 1.0 / num_examplesnegative_weights = np.ones((1, 4)) * 1.0 / num_exampleselse:assert ((cfg.TRAIN.RPN_POSITIVE_WEIGHT > 0) &(cfg.TRAIN.RPN_POSITIVE_WEIGHT < 1))positive_weights = (cfg.TRAIN.RPN_POSITIVE_WEIGHT /np.sum(labels == 1))negative_weights = ((1.0 - cfg.TRAIN.RPN_POSITIVE_WEIGHT) /np.sum(labels == 0))bbox_outside_weights[labels == 1, :] = positive_weights  # 前景与背景anchor的外参数相同,都是1/anchor个数bbox_outside_weights[labels == 0, :] = negative_weightsif DEBUG:self._sums += bbox_targets[labels == 1, :].sum(axis=0)self._squared_sums += (bbox_targets[labels == 1, :] ** 2).sum(axis=0)self._counts += np.sum(labels == 1)means = self._sums / self._countsstds = np.sqrt(self._squared_sums / self._counts - means ** 2)print 'means:'print meansprint 'stdevs:'print stds# map up to original set of anchors 生成全部anchor的数据,将非0的数据填入。labels = _unmap(labels, total_anchors, inds_inside, fill=-1)bbox_targets = _unmap(bbox_targets, total_anchors, inds_inside, fill=0)bbox_inside_weights = _unmap(bbox_inside_weights, total_anchors, inds_inside, fill=0)bbox_outside_weights = _unmap(bbox_outside_weights, total_anchors, inds_inside, fill=0)if DEBUG:print 'rpn: max max_overlap', np.max(max_overlaps)print 'rpn: num_positive', np.sum(labels == 1)print 'rpn: num_negative', np.sum(labels == 0)self._fg_sum += np.sum(labels == 1)self._bg_sum += np.sum(labels == 0)self._count += 1print 'rpn: num_positive avg', self._fg_sum / self._countprint 'rpn: num_negative avg', self._bg_sum / self._count# labels labels = labels.reshape((1, height, width, A)).transpose(0, 3, 1, 2)labels = labels.reshape((1, 1, A * height, width))top[0].reshape(*labels.shape)top[0].data[...] = labels# bbox_targetsbbox_targets = bbox_targets \.reshape((1, height, width, A * 4)).transpose(0, 3, 1, 2)top[1].reshape(*bbox_targets.shape)top[1].data[...] = bbox_targets# bbox_inside_weightsbbox_inside_weights = bbox_inside_weights \.reshape((1, height, width, A * 4)).transpose(0, 3, 1, 2)assert bbox_inside_weights.shape[2] == heightassert bbox_inside_weights.shape[3] == widthtop[2].reshape(*bbox_inside_weights.shape)top[2].data[...] = bbox_inside_weights# bbox_outside_weightsbbox_outside_weights = bbox_outside_weights \.reshape((1, height, width, A * 4)).transpose(0, 3, 1, 2)assert bbox_outside_weights.shape[2] == heightassert bbox_outside_weights.shape[3] == widthtop[3].reshape(*bbox_outside_weights.shape)top[3].data[...] = bbox_outside_weights

这里已经有详细的注释,总的来说,rpn_cls_score的作用就是告知第五层feature map的宽和高。便于决定生成多少个anchor. 而其他的bottom输入才最终决定top的输出。


首先这里生成了所有feature map各点对应的anchors。生成的方式很特别,先考虑了左上角一个点的anchor生成,考虑到feat_stride=16,所以这个点对应原始图像(这里统一指缩放后image)的(0,0,15,15)感受野。然后取其中心点,生成比例为1:1,1:2,2:1,尺度在128,256,512的9个anchor.然后考虑使用平移生成其他的anchor.

然后过滤掉那些不在图像内部的anchor. 对于剩下的anchor,计算与gt_boxes的重叠度,再分别计算label,bbox_targets,bbox_inside_weights,bbox_outside_weights.


最后将内部的anchor的相关变量扩充到所有的anchor,只不过不在内部的为0即可。尤其值得说的是对于内部的anchor,bbox_targets都进行了运算。但是选取了256个anchor,前景与背景比例为1:1,bbox_inside_weights中只有label=1,即前景才进行了设置。正如论文所说,对于回归项,需要内部参数来约束,bbox_inside_weights正好起到了这个作用。

我们统计一下top的shape:

rpn_labels : (1, 1, 9 * height, width)

rpn_bbox_targets(回归目标): (1, 36,height, width)

rpn_bbox_inside_weights(内权重):(1, 36,height, width)

rpn_bbox_outside_weights(外权重):(1, 36,height, width)


回到stage1_rpn_train.pt,接下里我们就可以利用rpn_cls_score_reshape与rpn_labels计算SoftmaxWithLoss,输出rpn_cls_loss。

而regression可以利用rpn_bbox_pred,rpn_bbox_targets,rpn_bbox_inside_weights,rpn_bbox_outside_weights计算SmoothL1Loss,输出rpn_loss_bbox。

回到我们之前有一个问题rpn_bbox_pred的shape怎么构造的。其实从rpn_bbox_targets的生成过程中可以推断出应该采用后一种,即第一个盒子的回归量(dx1,dy1,dw1,dh1),第二个为(dx2,dy2,dw,2,dh2).....,这样顺序着来。


其实怎么样认为都是从我们方便的角度出发。



至此我们完成了rpn的前向过程,反向过程中只需注意AnchorTargetLayer不参与反向传播。因为它提供的都是源数据。


参考:

1.  http://blog.csdn.net/zy1034092330/article/details/62044941 

2.  Faster RCNN anchor_target_layer.py


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/258639.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Android学习之高德地图的通用功能开发步骤(二)

周一又来了&#xff0c;我就接着上次的开发步骤&#xff08;一&#xff09;来吧&#xff0c;继续把高德地图的相关简单功能分享一下 上次写到了第六步&#xff0c;接着写第七步吧。 第七步&#xff1a;定位 地图选点 路径规划 实时导航 以下是我的这个功能NaviMapActivity的…

Oracle中分区表中表空间属性

Oracle中的分区表是Oracle中的一个很好的特性&#xff0c;可以把大表划分成多个小表&#xff0c;从而提高对于该大表的SQL执行效率&#xff0c;而各个分区对应用又是透明的。分区表中的每个分区有独立的存储特性&#xff0c;包括表空间、PCT_FREE等。那分区表中的各分区表空间之…

期刊论文格式模板 电子版_期刊论文的框架结构

最近看到很火的一句话&#xff0c;若不是生活所迫&#xff0c;谁愿意把自己弄得一身才华。是否像极了正想埋头苦写却毫无头绪的你&#xff1f;发表期刊论文的用途 &#xff1a;1: 学校或者单位评奖&#xff0c;评优&#xff0c;推免等2&#xff1a;申领学位证(如毕业硬性要求&a…

faster rcnn学习之rpn 的生成

接着上一节《 faster rcnn学习之rpn训练全过程》&#xff0c;假定我们已经训好了rpn网络&#xff0c;下面我们看看如何利用训练好的rpn网络生成proposal. 其网络为rpn_test.pt # Enter your network definition here. # Use ShiftEnter to update the visualization. name: &q…

初学java之常用组件

1 2 import javax.swing.*;3 4 import java.awt.*;5 class Win extends JFrame6 {7 JTextField mytext; // 设置一个文本区8 JButton mybutton;9 JCheckBox mycheckBox[]; 10 JRadioButton myradio[]; 11 ButtonGroup group; //为一…

anaconda 安装在c盘_最省心的Python版本和第三方库管理——初探Anaconda

打算把公众号和知乎专栏的文章搬运一点过来。 历史文章可以去关注我的公众号&#xff1a;不二小段&#xff0c;或者知乎&#xff1a;段小草。也欢迎来看我的视频学Python↓↓↓跟不二学Python这篇文章可以作为Python入门的第一站可以结合这期视频来看&#xff0c;基本上是这期视…

dubbo控制中心部署,权重配置,以及管控台中各个配置的简单查看

dubbo给我们提供了现成的后台管理网站&#xff0c;专门管理这些服务&#xff0c;应用&#xff0c;路由规则&#xff0c;动态配置&#xff0c;访问控制、权重控制、负载均衡等等&#xff0c;还可以查看系统日志&#xff0c;系统状态&#xff0c;系统环境等等&#xff0c;功能很是…

1001种玩法 | 1001种玩法--数据存储(2)

新智云www.enncloud.cn第二趴 Flockdb&#xff1a;一个高容错的分布式图形数据库 FlockDB是一个存储图数据的分布式数据库&#xff0c;图数据库的存储对象是数学概念图论里面的图&#xff0c;而非图片。Twitter使用它来存储人与人之间的关系图&#xff0c;这些关系包括&#xf…

Android ListView分页,动态添加数据

1.ListView分页的实现&#xff0c;重点在于实现OnScrollListener接口&#xff0c;判断滑动到最后一项时&#xff0c;是否还有数据可以加载&#xff0c; 我们可以利用listView.addFootView(View v)方法进行提示 自定义一个ListView&#xff08;这里本来想进行一些自定已修改的。…

faster rcnn的测试

当训练结束后&#xff0c;faster rcnn的模型保存在在py-faster-rcnn/output目录下&#xff0c;这时就可以用已有的模型对新的数据进行测试。 下面简要说一下测试流程。 测试的主要代码是./tools/test_net.py&#xff0c;并且使用到了fast_rcnn中test.py。 主要流程就是&…

Android-Universal-Image-Loader 的使用说明

这个图片异步载入并缓存的类已经被非常多开发人员所使用&#xff0c;是最经常使用的几个开源库之中的一个&#xff0c;主流的应用&#xff0c;随便反编译几个火的项目&#xff0c;都能够见到它的身影。但是有的人并不知道怎样去使用这库怎样进行配置&#xff0c;网上查到的信息…

faster rcnn end2end 训练与测试

除了前面讲过的rpn与fast rcnn交替训练外&#xff0c;faster rcnn还提供了一种近乎联合的训练&#xff0c;姑且称为end2end训练。 根据论文所讲&#xff0c;end2end的训练一气呵成&#xff0c;对于前向传播&#xff0c;rpn可以作为预设的网络提供proposal.而在后向传播中&…

基于像素聚类的分割方法基于slic的方法_博士论文摘要 | 张荣春:数码影像与TLS点云数据融合提取地质结构面方法研究...

《测绘学报》构建与学术的桥梁 拉近与权威的距离数码影像与TLS点云数据融合提取地质结构面方法研究张荣春1,21.南京邮电大学地理与生物信息学院, 江苏 南京 210023;2.河海大学地球科学与工程学院, 江苏 南京 211100收稿日期&#xff1a;2019-03-27基金项目&#xff1a;国家自然…

jaxb转xml空值双标签_单品运营思维:标签-词路-聚焦-直搜-超直

非标品标签思维&#xff1a;针对非标品 主要是2.0为主的打法根据搜索入池的关键词&#xff0c;有什么词做什么词。有个细节&#xff1a;不一定进什么词做什么词&#xff0c;这个维度当中加入3.0的思维3.0入手 转2.0再切3.0(检测词路健康度&#xff0c;非严格意义估算单量)举例&…

如何在PFSense中设置故障转移和负载平衡

故障转移是一种备份操作模式&#xff0c;仅在主系统由于系统故障或任何计划停机时间而变得不可用时&#xff0c;系统组件&#xff08;如网络&#xff09;的操作才由辅助系统承担。在本教程中&#xff0c;我们将看到如何设置故障转移和负载平衡&#xff0c;以使pfSense能够将流量…

图像金字塔总结

本文转载自&#xff1a; http://blog.csdn.net/dcrmg/article/details/52561656 一、 图像金字塔 图像金字塔是一种以多分辨率来解释图像的结构&#xff0c;通过对原始图像进行多尺度像素采样的方式&#xff0c;生成N个不同分辨率的图像。把具有最高级别分辨率的图像放在底部…

什么叫做罗列式_项目起盘的时候,如何确定自己该做什么社群?

这是祁杰『社群日记』第48篇持续日更&#xff0c;做最懂社群的营销咨询人很多人手上有资源&#xff0c;准备起盘项目的时候&#xff0c;总会思考一个问题&#xff1a;我能做什么样的社群&#xff1f;今天我们从用户需求出发&#xff0c;拆解一下哪些社群是能够确切地满足用户的…

Feature Pyramid Networks for Object Detection 总结

最近在阅读FPN for object detection,看了网上的很多资料&#xff0c;有些认识是有问题的&#xff0c;当然有些很有价值。下面我自己总结了一下&#xff0c;以供参考。 1. FPN解决了什么问题&#xff1f; 答&#xff1a; 在以往的faster rcnn进行目标检测时&#xff0c;无论…

那些 IT 界的神翻译,原来我学不好编程的原因就在这

近日博主 ruanyf 在网上发布了一条关于套接字“socket”的解释&#xff0c;引发了网友对于那些 IT 界的神翻译的讨论&#xff1a; 突然想到&#xff0c;socket就是插座。服务器的socket&#xff0c;就是服务器提供插座&#xff0c;等着客户端的插头插进来。一旦插入完成&#x…

navicat 结构同步会加锁吗_被柜员怠慢的张小波,真的会永久地转走几个亿的结构性存款吗?...

4月7日下午&#xff0c;北京凤凰联动文化传媒有限公司总裁张小波发布微博称&#xff0c;前几天去安贞附近一银行&#xff0c;想把借记卡的转帐额度从每天五百万上调一下&#xff0c;没有想到&#xff0c;在其问到“最高可调到多少”时&#xff0c;柜员回答一个亿并“鄙夷地看了…