【飞桨AI实战】人体姿态估计:零基础入门,从模型训练到应用开发

前言

本次分享将带领大家从 0 到 1 完成一个人体姿态估计任务,覆盖数据准备、模型训练、推理部署和应用开发的全流程,项目将采用以PaddlePaddle为核心的飞桨深度学习框架进行开发,并总结开发过程中踩过的一些坑,希望能为有类似项目需求的同学提供一点帮助。

项目背景和目标

背景:

人体姿态估计,通常也称为人体关键点检测,方法通常可以分成两类:

  • 一种是用坐标回归的方式来解决,直接输出各个关键点的位置坐标
  • 另一种是将关键点建模成热力图,通过像素分类任务,回归热力图分布得到关键点位置。

与人脸关键点检测不同,人体的躯干部位更为灵活,变化更为难以预测,基于坐标回归的方法难以胜任,通常使用热力图回归的关键点检测方法。

为此,本次实验将将采用“热力图回归”的方式进行模型搭建: 将关键点建模成热力图,通过像素分类任务,回归热力图分布得到关键点位置。每一类坐标用一个概率图来表示,对图片中的每个像素位置都给一个概率,表示该点属于对应类别关键点的概率。距离关键点位置越近的像素点的概率越接近于1,距离关键点越远的像素点的概率越接近于0。

目标:

  • 掌握如何用paddlepaddle深度学习框架搭建一个人体关键点检测模型;
  • 掌握关键点检测卷积神经网络的架构的设计原理以及构建流程;
  • 掌握如何完成模型的训练、评估、保存、预测等深度学习工作过程;

数据集介绍

本次实验使用的数据集来自 COCO,目前 COCO keypoint track是人体关键点检测的权威公开比赛之一,COCO数据集中把人体关键点表示为17个关节,分别是鼻子,左右眼,左右耳,左右肩,左右肘,左右腕,左右臀,左右膝,左右脚踝。人体关键点检测的任务就是从输入的图片中检测到人体及对应的关键点位置。

百度AI Studio平台

本次实验将采用AI Studio实训平台中的免费GPU资源,在平台注册账号后,点击创建项目-选择NoteBook任务,然后添加数据集,如下图所示,完成项目创建。启动环境可以自行选择CPU资源 or GPU资源,创建任务每天有8点免费算力,推荐大家使用GPU资源进行模型训练,这样会大幅减少模型训练时长。

创建项目的方式有两种:

  • 一是在AI Studio实训平台参考如下方式,新建项目。

  • 二是直接 fork 一个平台上的已有项目,比如本次实验,可以选择【飞桨AI实战】实验5-人体关键点检测的最新版本,然后点击 fork,成功后会在自己账户下新建一个项目副本,其中已经挂载了源项目自带的数据集和本次项目用到的核心代码。

为了快速跑通项目流程,建议直接 fork 源项目。

从零开始实战

1 基础:动手跑通人体关键点检测任务全流程

核心代码在:core/ 文件夹下

1.1 数据准备

本案例中使用了两个数据集,分别是:

  • COCO2017完整数据集,对应项目中的 data/data7122,用于训练得到更好的模型
  • COCO2017抽取的子集,对应项目中的 data/data9663,用于快速验证,跑通流程

step 1:解压缩数据

# 打开终端
# 解压子集  -d 指定解压缩的路径,会在data0文件夹下生成
unzip data/data9663/coco.zip -d data0/
## 解压完成后,目录结构如下:
data0/
`-- coco|-- annotations`-- images# 如果想解压完整数据集 -- 会很慢
mkdir -p data1/coco 
cd data1/coco
unzip ../../data/data7122/train2017.zip -d images/
unzip ../../data/data7122/annotations_trainval2017.zip -d ./

step 2: 准备数据部分代码

# 为了读取 coco 数据, 需要安装COCO API,用于加载、解析和可视化COCO数据集
pip install pycocotools# 自定义Dataset,核心代码见:
reader.py

step 3: 数据可视化

# 打开一个 notebook 比如在main.ipynb中,输入:
from core.reader import COCOPose
debug_data = COCOPose('data0/coco', mode='train', shuffle=True, debug=True)
img, heatmaps, heatmaps_weight = debug_data[0]

COCOPose 中定义了可视化函数,指定 debug=True,就会打印出数据的可视化结果,如下图所示:

  • 左:原始图像
  • 中:crop 出的人物图像 及其身上的关键点
  • 右:关键点对应的 HeatMap,也即模型要预测的目标

1.2 模型构建

本次实验我们将采用最简单的网络架构,定义为 PoseNet ,backbone模型采用去掉最后池化层和全连接层的ResNet模型,然后通过反卷积和上采样,生成热力图。训练和推理阶段的流程是:输入一张图片,模型生成热力图,通过像素分类任务,回归热力图分布得到关键点位置。

step 1: 搭建 PoseNet

# 定义模型类
net.py

step 2: 定义损失函数

# 定义 HeatMap loss, 位于 net.py
class HMLoss(paddle.nn.Layer):def __init__(self, kps_num):super(HMLoss, self).__init__()self.k = kps_numdef forward(self, heatmap, target, target_weight):_, c, h, w = heatmap.shapex = heatmap.reshape((-1, self.k, h*w))y = target.reshape((-1, self.k, h*w))w = target_weight.reshape((-1, self.k))x = x.split(num_or_sections=self.k, axis=1)y = y.split(num_or_sections=self.k, axis=1)w = w.split(num_or_sections=self.k, axis=1)# 计算预测热力图的目标热力图的均方误差_list = []for idx in range(self.k):_tmp = paddle.scale(x=x[idx] - y[idx], scale=1.)_tmp = _tmp * _tmp_tmp = paddle.mean(_tmp, axis=2)_list.append(_tmp * w[idx])_loss = paddle.concat(_list, axis=0)_loss = paddle.mean(_loss)return 0.5 * _loss

1.3 模型训练

编写训练脚本 train.py 如下,主要是定义好数据集、模型,配置训练相关参数:

import paddle
from visualdl import LogWriter
from reader import COCOPose
from net import PoseNet, HMLoss# 配置visualdl
write = LogWriter(logdir='logdir')
iters = 0 # 初始化为0
class Callbk(paddle.callbacks.Callback):def __init__(self, write, iters=0):self.write = writeself.iters = itersdef on_train_batch_end(self, step, logs):self.iters += 1#记录lossself.write.add_scalar(tag="loss",step=self.iters,value=logs['loss'][0])# 定义数据集
train_data = COCOPose('../data0/coco', mode='train', shuffle=True)
# 定义模型
net = PoseNet(layers=50, kps_num=17, pretrained=True, test_mode=False)
model = paddle.Model(net)# 选择优化策略
lr = 0.001
batch_size = 64
num_epochs = 100
num_train_img = train_data.__len__()
batch_size = batch_size
step = int(num_train_img / batch_size + 1)
bd = [0.6, 0.85]
bd = [int(num_epochs * e * step) for e in bd]
lr_drop_ratio = 0.1
base_lr = lr
lr = [base_lr * (lr_drop_ratio**i) for i in range(len(bd) + 1)]
scheduler = paddle.optimizer.lr.PiecewiseDecay(boundaries=bd, values=lr, verbose=False)
optim = paddle.optimizer.Adam(learning_rate=scheduler, parameters=model.parameters())# 准备模型的优化策略和损失函数
model.prepare(optimizer=optim, loss=HMLoss(kps_num=17))# 使用示例数据集进行10个epoch训练
model.fit(train_data, batch_size=batch_size,epochs=num_epochs,save_dir='outputs/', save_freq=1,callbacks=Callbk(write=LogWriter(logdir='logdir'), iters=0)) # 配置visualdl, iters初始化为0
# 运行训练脚本
python train.py

训练过程中,也可以尝试采用 VisualDL 工具,可视化训练过程中的loss:

1.4 模型预测

编写预测脚本 predict.py 如下,

import paddle
import cv2
import numpy as np
from matplotlib import pyplot as plt
from reader import COCOPose_test
from net import PoseNet# 热力图转为关键点
def get_max_preds(batch_heatmaps):"""Get predictions from score maps.heatmaps: numpy.ndarray([batch_size, num_joints, height, width])"""assert isinstance(batch_heatmaps, np.ndarray), \'batch_heatmaps should be numpy.ndarray'assert batch_heatmaps.ndim == 4, 'batch_images should be 4-ndim'batch_size = batch_heatmaps.shape[0]num_joints = batch_heatmaps.shape[1]width = batch_heatmaps.shape[3]heatmaps_reshaped = batch_heatmaps.reshape((batch_size, num_joints, -1))idx = np.argmax(heatmaps_reshaped, 2)maxvals = np.amax(heatmaps_reshaped, 2)maxvals = maxvals.reshape((batch_size, num_joints, 1))idx = idx.reshape((batch_size, num_joints, 1))preds = np.tile(idx, (1, 1, 2)).astype(np.float32)preds[:, :, 0] = (preds[:, :, 0]) % widthpreds[:, :, 1] = np.floor((preds[:, :, 1]) / width)pred_mask = np.tile(np.greater(maxvals, 0.0), (1, 1, 2))pred_mask = pred_mask.astype(np.float32)preds *= pred_maskreturn preds, maxvalsnet = PoseNet(layers=50, kps_num=17, pretrained=False, test_mode=False)
net.set_state_dict(paddle.load('outputs/0.pdparams'))
model = paddle.Model(net)
model.prepare()
test_data = COCOPose_test(data_dir='testdata')
result = model.predict(test_data, batch_size=1)for id in range(len(test_data)):image, _ = test_data[id]min = np.array(image.min(), dtype=np.float32)max = np.array(image.max(), dtype=np.float32)image = np.add(image, -min)image = np.divide(image, max - min + 1e-5) * 255image = image.clip(0, 255).astype(np.uint8)image = cv2.cvtColor(image.transpose(1, 2, 0),cv2.COLOR_BGR2RGB)# 绘制热力图for i in range(18):plt.subplot(3, 6, i+1)plt.axis('off')if i == 0:plt.imshow(image)else:plt.imshow(result[0][id][0][i-1])plt.savefig(f'result_hm_{id}.png')# 绘制关键点batch_heatmaps = result[0][id]batch_size,num_joints,heatmap_height,heatmap_width = result[0][id].shapepreds, maxvals = get_max_preds(batch_heatmaps)icolor = (0, 238, 238)print('point num:',num_joints)for j in range(num_joints):x,y = preds[0][j]cv2.circle(image, (int(x * 4), int(y * 4)), 3, icolor, -1, 16)cv2.imwrite(f'result_kp_{id}.png', cv2.cvtColor(image, cv2.COLOR_RGB2BGR))
# 运行预测脚本
python predict.py

实验结果发现,如果只是用子集的 500 张图像进行训练,模型根本无法收敛,预测效果如下图所示:

这时需要改用 完整数据集 train2017 进行训练,在训练 1 个 epoch (单卡 V100 大概耗时在 1 小时左右) 后,模型基本可以收敛,预测效果如下图所示:

2 进阶:基于PP-TinyPose搭建应用

核心代码在:pose-demo/ 文件夹下

2.1 PP-TinyPose 简介

PP-TinyPose 是 PaddleDetecion 针对移动端设备优化的实时关键点检测模型,可流畅地在移动端设备上执行多人姿态估计任务。

本质上是一个自顶向下的方法,其处理流程图如下:人体检测 + 关键点检测。

2.2 模型准备

因为 PP-TinyPose 是基于 PaddleDetecion 框架实现的,所以我们需要首先下载 PaddleDetecion:

# 国内网络问题,可能导致下载失败,可以多尝试几次
git clone https://github.com/PaddlePaddle/PaddleDetection.git

如果要重新训练模型,可以参考笔者之前分享的目标检测的一个项目案例【飞桨AI实战】交通灯检测:手把手带你入门PaddleDetection,从训练到部署,完成环境准备。

但由于训练耗时较长,这里我们直接下载官方训练好的模型,并解压出来:

mkdir output_inference & cd output_inference
wget https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/picodet_s_320_lcnet_pedestrian.zip
wget https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/tinypose_256x192.zip
unzip picodet_s_320_lcnet_pedestrian.zip
unzip tinypose_256x192.zip

找一张图像测试了看看,发现效果是 OK 的:

python deploy/python/det_keypoint_unite_infer.py --det_model_dir=output_inference/picodet_v2_s_320_pedestrian --keypoint_model_dir=output_inference/tinypose_256x192 --image_file=../core/testdata/000000000016.jpg

2.3 部署准备

飞桨提供了众多的模型部署方式,有关不同部署方式的适用场景,可以参考之前的分享【飞桨AI实战】人像分割:手把手带你入门PaddleSeg,从模型训练、推理部署到应用开发。

本次实验为了带领大家快速跑通流程,这里采用最简单的推理方式-直接采用 Inference 模型进行推理,用到的函数主要在 PaddleDetection/deploy/python/ 下,所以首先将该文件夹复制到当前文件夹pose-demo/下。

然后编写模型推理函数,我放在了model.py中,其主要逻辑是新定义类UniModel,初始化中指定加载的人体检测模型和关键点检测模型,然后分别编写两个函数:infer_imginfer_vid ,分别实现对图片和视频的推理,最后通过visualize函数实现推理结果的可视化。具体实现逻辑如下:

import os
import time
import cv2
import math
import numpy as np
from deploy.python.infer import Detector
from deploy.python.keypoint_infer import KeyPointDetector
from deploy.python.det_keypoint_unite_infer import KeypointSmoothingclass UniModel():def __init__(self):dirpath = os.path.dirname(os.path.abspath(__file__))self.detector = Detector(model_dir= os.path.join(dirpath, 'output_inference/picodet_v2_s_320_pedestrian'), device='CPU')self.keypoint_detector = KeyPointDetector(model_dir=os.path.join(dirpath, 'output_inference/tinypose_256x192'), device='CPU')def infer_img(self, img_file, vis=False):if type(img_file) == str:image = cv2.imread(img_file)else:image = img_fileimage = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)results = self.detector.predict_image([image], visual=False)results = self.detector.filter_box(results, threshold=0.5)if results['boxes_num'] > 0:keypoint_res = self.predict_with_given_det(image, results)keypoint_res['boxes_num'] = results['boxes_num']else:keypoint_res = {"keypoint": [[], []], "boxes_num": 0}if vis:canvas = self.visualize(img_file, keypoint_res)return canvas, keypoint_resreturn keypoint_resdef predict_with_given_det(self, image, det_res):keypoint_res = {}rec_images, records, det_rects = self.keypoint_detector.get_person_from_rect(image, det_res)if len(det_rects) == 0:keypoint_res['keypoint'] = [[], []]return keypoint_reskp_results = self.keypoint_detector.predict_image(rec_images, visual=False)kp_results['keypoint'][..., 0] += np.array(records)[:, 0:1]kp_results['keypoint'][..., 1] += np.array(records)[:, 1:2]keypoint_res['keypoint'] = [kp_results['keypoint'].tolist(), kp_results['score'].tolist()] if len(kp_results['keypoint']) > 0 else [[], []]keypoint_res['bbox'] = det_rectsreturn keypoint_resdef infer_vid(self, video_file=None, camera_id=-1):if camera_id != -1:capture = cv2.VideoCapture(camera_id)else:capture = cv2.VideoCapture(video_file)out_path = 'output.mp4'width = int(capture.get(cv2.CAP_PROP_FRAME_WIDTH))height = int(capture.get(cv2.CAP_PROP_FRAME_HEIGHT))fps = int(capture.get(cv2.CAP_PROP_FPS))frame_count = int(capture.get(cv2.CAP_PROP_FRAME_COUNT))print("fps: %d, frame_count: %d" % (fps, frame_count))fourcc = cv2.VideoWriter_fourcc(* 'mp4v')writer = cv2.VideoWriter(out_path, fourcc, fps, (width, height))index = 0keypoint_smoothing = KeypointSmoothing(width, height, filter_type='OneEuro', beta=0.05)while True:ret, frame = capture.read()if not ret:breakindex += 1print('detect frame: %d' % (index))results = self.infer_img(frame, vis=False)if results['boxes_num'] == 0:writer.write(frame)continueif len(results['keypoint'][0]) == 1:current_keypoints = np.array(results['keypoint'][0][0])smooth_keypoints = keypoint_smoothing.smooth_process(current_keypoints)results['keypoint'][0][0] = smooth_keypoints.tolist()frame = self.visualize(frame, results)writer.write(frame)writer.release()print('output_video saved to: {}'.format(out_path))return out_path, "fps: %d, frame_count: %d" % (fps, frame_count)def visualize(self, img_file, results, visual_thresh=0.5):skeletons, scores = results['keypoint']if len(skeletons) == 0:return img_fileskeletons = np.array(skeletons)kpt_nums = 17if len(skeletons) > 0:kpt_nums = skeletons.shape[1]if kpt_nums == 17:  #plot coco keypointEDGES = [(0, 1), (0, 2), (1, 3), (2, 4), (3, 5), (4, 6), (5, 7), (6, 8),(7, 9), (8, 10), (5, 11), (6, 12), (11, 13), (12, 14),(13, 15), (14, 16), (11, 12)]else:  #plot mpii keypointEDGES = [(0, 1), (1, 2), (3, 4), (4, 5), (2, 6), (3, 6), (6, 7), (7, 8),(8, 9), (10, 11), (11, 12), (13, 14), (14, 15), (8, 12),(8, 13)]NUM_EDGES = len(EDGES)colors = [[255, 0, 0], [255, 85, 0], [255, 170, 0], [255, 255, 0], [170, 255, 0], [85, 255, 0], [0, 255, 0], \[0, 255, 85], [0, 255, 170], [0, 255, 255], [0, 170, 255], [0, 85, 255], [0, 0, 255], [85, 0, 255], \[170, 0, 255], [255, 0, 255], [255, 0, 170], [255, 0, 85]]img = cv2.imread(img_file) if type(img_file) == str else img_filebboxs = results['bbox']for rect in bboxs:xmin, ymin, xmax, ymax = rectcolor = colors[0]cv2.rectangle(img, (xmin, ymin), (xmax, ymax), color, 2)canvas = img.copy()for i in range(kpt_nums):for j in range(len(skeletons)):if skeletons[j][i, 2] < visual_thresh:continuecv2.circle(canvas,tuple(skeletons[j][i, 0:2].astype('int32')),2,colors[i],thickness=-1)for i in range(NUM_EDGES):for j in range(len(skeletons)):edge = EDGES[i]if skeletons[j][edge[0], 2] < visual_thresh or skeletons[j][edge[1], 2] < visual_thresh:continuecur_canvas = canvas.copy()X = [skeletons[j][edge[0], 1], skeletons[j][edge[1], 1]]Y = [skeletons[j][edge[0], 0], skeletons[j][edge[1], 0]]mX = np.mean(X)mY = np.mean(Y)length = ((X[0] - X[1])**2 + (Y[0] - Y[1])**2)**0.5angle = math.degrees(math.atan2(X[0] - X[1], Y[0] - Y[1]))polygon = cv2.ellipse2Poly((int(mY), int(mX)),(int(length / 2), 2),int(angle), 0, 360, 1)cv2.fillConvexPoly(cur_canvas, polygon, colors[i])canvas = cv2.addWeighted(canvas, 0.4, cur_canvas, 0.6, 0)return canvas

2.4 应用搭建

本次实验同样还是基于 Gradio 搭建一个简单的前端应用,能够实现图片和视频的人体关键点检测。

首先,我们新建 Gradio 界面搭建脚本文件,pose-demo/demo.gradio.py,两个 tab 分别实现图片和视频推理,交互按钮调用 UniModel 中的处理函数,具体实现逻辑如下:

import gradio as gr
from model import UniModelmodel = UniModel()
def process_frame(image):canvas, keypoint_res = model.infer_img(image, vis=True)return canvas, keypoint_res['boxes_num']def process_video(video):out_path, vid_info = model.infer_vid(video)return out_path, vid_infowith gr.Blocks() as demo:html_title = '''<h1 style="text-align: center; color: #333;">PP-TinyPose人体关键点检测</h1>'''gr.HTML(html_title)with gr.Tab("图像处理"):# Blocks默认设置所有子组件按垂直排列Columnwith gr.Row():image_input = gr.Image(label='输入图像')with gr.Column():image_output = gr.Image(label='检测结果')text_image = gr.Textbox(label='行人数量')image_button = gr.Button(value="提交")with gr.Tab("视频处理"):with gr.Row():with gr.Column():video_input = gr.Video(label='输入图像')with gr.Column():video_output = gr.Video(label='检测结果')text_video = gr.Textbox(label='视频信息')video_button = gr.Button(value="提交")image_button.click(process_frame, inputs=image_input, outputs=[image_output, text_image])video_button.click(process_video, inputs=video_input, outputs=[video_output, text_video])demo.launch()

编写完成后,我们在 AI Studio 的 CodeLab 界面测试一下,速度 Ok:

点击代码区域上方的 + 号,可以在浏览器中打开应用,让我们加载一个视频看看,测试结果如下,当然目前视频处理的耗时还比较长,后续可以考虑其他部署方式,加快模型推理速度。

推理后输出的视频就是你在本篇开头看到的动图,这里通过 moviepy 库将 .mp4 文件转成了 .gif 进行展示。

from moviepy.editor import VideoFileClip
clip = VideoFileClip('output.mp4')
clip = clip.resize(0.5)
clip.write_gif('output.gif', fps=5)
clip.close()

总结

至此,我们共同走完了一个完整的人体姿态估计项目,从基础的数据准备到模型训练,再到应用开发和部署,旨在帮助初学者快速入门并掌握关键技能。首先了解了如何使用PaddlePaddle框架和COCO数据集来构建和训练一个高效的人体关键点检测模型,其次采用PP-TinyPose模型通过Gradio创建了一个交互式的前端应用。

人体姿态估计技术在多个领域都有着广泛的应用,从健康监测到增强现实,再到安全监控等。期待本文能够激发您对深度学习和计算机视觉的兴趣。

本系列的后续文章将沿袭这一思路,继续分享更多采用Paddle深度学习框架服务更多产业应用的案例。如果对你有帮助,欢迎 关注 收藏 支持啊~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/2811.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

增加PyQt5界面的交通流量预测(模型为CNN_GRU,CNN_BiGRU_ATTENTION,LSTM,Python代码)

1.效果视频&#xff1a;增加PyQt5界面的交通流量预测&#xff08;模型为CNN_GRU&#xff0c;CNN_BiGRU_ATTENTION&#xff0c;LSTM&#xff09;_哔哩哔哩_bilibili&#xff09; 2.三个模型和数据集的介绍 交通流量预测(python代码&#xff0c;压缩包中带有数据&#xff0c;CN…

曲线救国|基于函数计算FC3.0部署AI数字绘画stable-diffusion

曲线救国|基于函数计算FC3.0部署AI数字绘画stable-diffusion 基于函数计算FC2.0部署AI数字绘画stable-diffusion基于函数计算FC3.0部署AI数字绘画stable-diffusion总结 在经过了上一次曲线救国失败经历之后&#xff0c;失败经历参考博文&#xff1a;https://developer.aliyun.c…

docker-003镜像制作

步骤 使用docker commit提交容器使之成为镜像以ubuntu安装vim后的容器为例 1 ubuntu安装vim 启动容器 docker run -it --nameubuntu-vim ubuntu /bin/bash安装vim apt-get update apt-get install vim2 提交容器作为镜像 查看容器 docker ps -a提交容器作为镜像 命令格式&…

SimManager助力巴西航空工业公司搭建功能完善的仿真平台

巴西航空工业公司在实施构建结构分析平台之前&#xff0c;使用内部作业调度批处理程序在大型计算机上进行求解作业&#xff0c;前处理器和后处理器在本地工作站上运行&#xff0c;这些程序生成的工程数据存储在共享网络目录中&#xff0c;这一过程带来了一些问题&#xff1a; 为…

STM32 MPU配置参数

TXE LEVEL一般只用MPU_TEX_LEVEL0 1 - 1 - 1 -0性能最强&#xff08;TEX - C - B- S&#xff09;. #define MPU_TEX_LEVEL0 ((uint8_t)0x00) #define MPU_TEX_LEVEL1 ((uint8_t)0x01) #define MPU_TEX_LEVEL2 ((uint8_t)0x02) 基于上表进行常用配置 &#xff…

C语言 | Leetcode C语言题解之第41题缺失的第一个正数

题目&#xff1a; 题解&#xff1a; int firstMissingPositive(int* nums, int numsSize) {for (int i 0; i < numsSize; i) {while (nums[i] > 0 && nums[i] < numsSize &&nums[nums[i] - 1] ! nums[i]) {int t nums[nums[i] - 1];nums[nums[i] -…

【办公类-26-01】20240422 UIBOT网络教研(自动登录并退出多个账号,半自动半人工)

作品展示&#xff1a; 背景需求&#xff1a; 每学期有多次网络教研 因为我有历任搭档的进修编号和登录密码&#xff0c; 所以每次学习时&#xff0c;我会把历任搭档的任务也批量完成。 但是每次登录都要从EXCEL里复制一位老师的“进修编号”“密码”&#xff0c;还要点击多次…

慧明咨询:成绩公式,发现未知,助力进步

在当今社会,数以万计的学子面临着激烈的教育竞争。2000万的中考生、1000万的高考生、300万的考研生以及500万的国考备考者,都在为了通过这“独木桥”而战。 面对有限的优质学区、师资力量的不足、以及巨大的心理压力,学生及其家长们焦虑不已。为此,深圳市慧明咨询顾问有限公司…

[Meachines][Medium]IClean

Main $ nmap -p- -sC -sV 10.10.11.12 -Pn --min-rate 1000 $ echo "10.10.11.12 capiclean.htb">>/etc/hosts 这题可能和python的SSTI有关 $ gobuster dir --url "http://capiclean.htb" --wordlist /usr/share/seclists/Discovery/Web-Content/c…

SpringMvc(2)RequestMapping注解

RequestMapping注解 1 、RequestMapping的作用2、RequestMapping的出现位置3、类上与方法上结合使用4、RequestMapping注解的value属性4.1 value属性的使用4.2 Ant风格的value4.3 value中的占位符&#xff08;重点&#xff09; 5、RequestMapping注解的method属性5.2衍生Mappin…

二维码图片的链接怎么提取?在线获取解码链接的方法

随着现在二维码成为内容展示的主要用途&#xff0c;很多场景下都会需要通过扫码的方式在手机上获取内容。那么在遇到无法扫码的情况时&#xff0c;可以通过提取二维码短链接来访问内容&#xff0c;点击链接跳转到对应的内容页面。 二维码链接想要快速的提取出来&#xff0c;最…

(二)Go的Mysql、Redis、Cookie、Logger等的文件配置

初始化配置 文章目录 初始化配置一、配置yaml文件二、Go读取配置文件三、初始化日志Logger四、初始化数据库&#xff08;MySQL或SqlLite&#xff09;五、初始化缓存&#xff08;Redis&#xff09;六、中间件服务&#xff08;middleware&#xff09; 一、配置yaml文件 Server:M…

Github进行fork后如何与原仓库同步

前言 fork了一个仓库以后怎么同步源仓库的代码&#xff1f; 步骤 1、执行命令 git remote -v 查看你的远程仓库的路径。 以一个实际例子说明&#xff0c; 来源仓库&#xff1a; TheFirstLineOfCode/basaltgit remote -v得到&#xff1a; origin https://github.com/ghmi…

53.基于微信小程序与SpringBoot的戏曲文化系统设计与实现(项目 + 论文)

项目介绍 本站采用SpringBoot Vue框架&#xff0c;MYSQL数据库设计开发&#xff0c;充分保证系统的稳定性。系统具有界面清晰、操作简单&#xff0c;功能齐全的特点&#xff0c;使得基于SpringBoot Vue技术的戏曲文化系统设计与实现管理工作系统化、规范化。 技术选型 后端:…

【Linux】日志分析与管理

作为一个运维&#xff0c;如果不会看日志&#xff0c;就好比是冬天刚刚用热水泡完了脚&#xff0c;接着就立马让人把水喝掉。 目录 一、Inode介绍 1.1 什么是inode 1.2 inode表内容 1.3 查看inode号的方式 二、日志分析 2.1 日志的用途 2.2 日志的分类 2.3 日志级别 2…

MATLAB基于图像特征的火灾检测

实验目标 基于图像特征的火灾检测 实验环境 Windows电脑、MATLAB R2020a 实验内容 1.读取图像&#xff0c;彩色图像的灰度化处理&#xff0c;进行边缘检测&#xff0c;实现对火焰的检测。 2.对两幅RGB图像进行火焰特征提取实验 3.对比分析边缘检测算法处理结果和基于图像…

比赛记录:Codeforces Round 940 (Div. 2) and CodeCraft-23 A~E

传送门:CF [前题提要]:感觉这场题目其实都很经典.遗憾的是赛时C题答案统计看成了不同的下棋的方案数,然后以为刚开始不能放不是一种答案(直接特判输出了0),卡了一场比赛.幸好最后15min险过CD,不然掉大分了 A. Stickogon 难点在于读懂题意. 读懂题意之后不难发现每根木棒都形成…

Git--原理与使用

目录 一、课程目标二、初始Git三、安装Git3.1 Linux-centos 四、Git的基本操作4.1 创建Git本地仓库 五、配置Git六、认识工作区、暂存区、版本库七、添加文件八、查看.git九、修改文件十、版本回退十一、撤销修改11.1 情况一&#xff1a;对于工作区的代码&#xff0c;还有add11…

阿斯达年代记三强争霸加速器用什么好 超好用的免费加速器

阿斯达年代记&#xff1a;三强争霸的核心玩法围绕着阿斯达大陆上的权力斗争&#xff0c;玩家将投身于三大势力——阿斯达联邦、亚高同盟及边缘叛军之间错综复杂的竞争之中。每个阵营都有其独特的背景故事、目标和战略&#xff0c;玩家的选择不仅影响个人的游戏进程&#xff0c;…

【IC设计】奇数分频与偶数分频 电路设计(含讲解、RTL代码、Testbench代码)

文章目录 原理分析实现和仿真偶数分频的电路RTL代码偶数分频的电路Testbench代码偶数分频的电路仿真波形占空比为50%的三分频电路RTL代码占空比为50%的三分频电路Testbench代码占空比为50%的三分频电路仿真波形 参考资料 原理分析 分频电路是将给定clk时钟信号频率降低为div_c…