【Chrono Engine学习总结】5-sensor-5.2-导出lidar数据的方法与原理探究

由于Chrono的官方教程在一些细节方面解释的并不清楚,自己做了一些尝试,做学习总结。

1、Sensor数据生成流程回顾

Chrono里面,sensor的数据生成、可视化、以及保存,都需要单独进行设置才能实现。sensor数据的采集流程如下https://api.projectchrono.org/sensor_overview.html:
在这里插入图片描述
可以看出,sensor数据更新是另一个线程中进行,当场景/物体发生变化后,获得sensor的原始数据,之后应用各种滤波器,最后将滤波后的数据输出,可以在主线程中进行调用/保存。这就是sensor数据采集的整体流程。

2、数据输出的两种方式

2.1 通过滤波器实现

在官方的demo_SEN_gator和demo_SEN_HMMWV中,给出了通过滤波器方式实现数据输出的例子。关键核心步骤如下:

// 1. 创建一个sensor的manager
auto manager = chrono_types::make_shared<ChSensorManager>(gator.GetSystem());
// 2. 创建一个sensor
auto vlp16 = chrono::sensor::Sensor::CreateFromJSON(GetChronoDataFile("sensor/json/Velodyne/HDL-32E.json"), gator.GetChassisBody(), lidar_extrinsics);
// 3. 添加“保存点云”滤波器。只有加上这一行,才能够在后续仿真中自动输出
vlp16->PushFilter(chrono_types::make_shared<ChFilterSavePtCloud>("C:/Users/larrydong/Desktop/lidar_output/"));  // 包含这个filter,在每次Apply对应的filter时(update中),会执行保存到文件,并输出Beam count
// 4. 添加sensor到管理器
manager->AddSensor(vlp16);// 循环部分
manager->Update();  
gator.Synchronize(time, driver_inputs, terrain);
gator.Advance(step_size);

程序运行之后,将会在滤波器给出的输出路径,输出第N帧数据的csv文件,文件内为点云数据。

2.2 通过直接读取Buffer实现

官方的tutorial中给出了一个读取数据的方式https://api.projectchrono.org/lidar_sensor.html:
在这里插入图片描述
但并没有详细解释。进行了探究,发现,只需要在主循环中,判断读到了Buffer之后,即可输出数据,从这里写入文件即可。但这里存在一个问题,Buffer的大小是多少,即有多少个lidar点?这个问题在下一小节进行探讨。

3、详细探究lidar数据更新过程

3.1 关于Buffer读取的探究

在2.2中,给出了通过直接读取lidar的Buffer的方式读取数据。我们查看GetMostRecentBuffer函数,调用了ChSensor中的GetMostRecentBufferHelper,进一步调用了ChFilterAccess中的GetBuffer()。从这个最终的函数中,可以看出获取了buffer的宽、高、时间戳、和更新次数(LaunchedCount),因此在2.2中获取Buffer之后,可以通过数据的宽和高(对于lidar来说是Nx1的),获取lidar数据。

例如,20Hz的lidar,我们在main循环中,每步都输出Buffer的基本信息。代码:
在这里插入图片描述输出如下:
在这里插入图片描述即当前点云有24272个点,对应时间是3.8s和3.85s,对应第76和77帧。但我们发现,Buffer虽然没有更新,但依然是存在的,因此不能单纯通过Buffer是否存在,判断有无更新,而是需要通过launchCount这个数进行判断。但这时,我们仍不清楚lidar的数据在什么时刻“输出”的。我们马上会说到这个问题。

3.2 采用Filter方式输出

例子当中,我们把lidar这个sensor绑定到一个车辆vehicle当中。这部分其实很容易实现,只需要在创建一个sensor时指定attach的实体,给上我们的vehicle即可。这里的vehicle用的是Gator。

auto vlp16 = chrono::sensor::Sensor::CreateFromJSON(GetChronoDataFile("sensor/json/Velodyne/HDL-32E.json"), gator.GetChassisBody(), 					// 绑定到Gator的底盘上,Gator的底盘本质上还是一个ChBodylidar_extrinsics);							// 相对于底盘的位置参数,即lidar外参

在main当中,我们有三个关键函数:sensor manager的update(),gator的Synchronize,以及gator的Advance()。经测试标明,在lidar输出了数据之后,Advance()执行时,会输出lidar数据到指定路径。具体的实现是调用了ChFilterSavePtCloud的Apply函数实现的,如下:

在这里插入图片描述

3.3 函数详解

需要提醒的是,调用GetMostRecentBuffer和Filter两种方式输出并不冲突。前者是我们自己读取Buffer获取,后者是仿真里面“例行公事”完成的,例行公事的函数就是这个Advance。只不过,我并不是很清楚,什么时候lidar的Buffer中更新了数据、什么时候执行的Advance。

提醒的第2点,sensor绑定vehicle后,更新的部分之和vehicle的函数有关,哪怕是sensor的可视化,也与irrlicht等可视化模块无关。只有当sensor的filter添加了可视化的filter之后,才能显示sensor的数据,并且窗口中数据的更新是跟vehicle的,并不是跟vis模块的。

在“认可”上面两条之后,我们探讨这部分的几个函数。

manager->Update()

在这里插入图片描述我们看sensor manager的Update,可以看到,包括:对所有光学传感器更新、非光学传感器更新两部分。前者依赖OptiX库,底层实现在 ChOptixEngine.cpp 中。对于光学的UpdateSensors,具体如下:
在这里插入图片描述在这个Update完成之后,可以认为lidar已经“采集了”一个新的数据,但这个数据并没有“传输”出来。此时,在执行Adance()函数时,会更新可视化窗口。即下图左侧的这个窗口,是由Sensor管理的,在sensor更新时才会更新,更新的频率和右侧的仿真窗口不同,右侧的是可视化例如irrlicht控制的。
在这里插入图片描述

gator.Advance()
这个Advance函数很复杂, 包括了vehicle和各种子系统的更新。由于Gator是一个wheelvehicle,也是一个vehicle,所以Gator的advance在完成了Gator一些独特的操作之后,再次调用ChWheelVehicle的advance,完成wheel特有的操作之后,再调用了ChVehicle的advance。同时,vehicle包括一个物理系统(之前博客讲过,如果有vehicle之后,就不需要再定义仿真物理系统了),最终执行的是物理系统的DoStepDynamic
在这里插入图片描述到这一步往下就没有深究。但正如上面所说,具体advance时,执行了更新图像、保存数据等操作。

何时更新图形、何时保存数据?
我们来看最后一个问题,到底是什么时候保存的数据、什么时候更新的lidar显示?由于上面已经说明了,lidar的显示和输出,并不是同步的。

为了充分模拟传感器,chrono在场景变化后,lidar的采集数据是立刻变化的,可视化的窗口会进行更新,但此时的数据并没有输出出来。这个输出延时,就是对传感器设置时有一个lag参数,表示“从采集到数据,到数据输出”的时间延迟。

可以这么理解,仿真过程是这个样子:

  1. 当达到物理仿真频率时(很高,例如1ms),物理环境就发生变换:
  2. 当达到sensor的采集频率时(不高,例如20Hz的lidar是50ms), lidar传感器获得了一次完整的frame,这一步由manager->Update实现;但在这个过程中,采集过程是另一个线程实现的,因此数据是连续的,并不是单纯的在“这一个时刻”获得的;
  3. 在sensor有效的update之后,Advance时对可视化窗口进行了更新(但“传输”的数据还没有更新)
  4. 经过当sensor的lag之后,如果定义了获取数据的Filter(ChFilterXYZIAccess),此时输出数据获得了更新,即GetMostRecentBuffer 获取到的数据进行了更新;如果又定义了保存点云的Filter(ChFilterSavePtCloud),此时Advance时会输出csv文件到路径。

通过对一个完整的过程打断点与输出,验证了上面的理解:
在这里插入图片描述

  • “Width xxx” 这一行输出,是仿真每次循环(每1ms)时输出一次;
  • “Beam count” 这一行输出是Advance中更新图像窗口时的输出,精准的每50次执行一次;
  • 在0.1s和0.15s之间,可以看出点云的数据Buffer发生了变化,也就是这个时刻,lidar已经update的数据“传输”了、GetMostRecentBuffer发生了更新,因此此时Advance时能够保存点云到路径;
  • 在每次Update之后,经过了20次loop,更新的buff和输出点云,这个20次就是sensor的lag参数控制的。我设置成了0.02s,因此经过1ms的循环20次,“传输”了。

4、完整代码

这个代码太长了,主要是用来测试上面的内容。

#include "chrono/core/ChRealtimeStep.h"
#include "chrono/utils/ChUtilsInputOutput.h"
#include "chrono/physics/ChBodyEasy.h"
#include "chrono_vehicle/ChVehicleModelData.h"
#include "chrono_vehicle/terrain/RigidTerrain.h"
#include "chrono_vehicle/driver/ChInteractiveDriverIRR.h"
#include "chrono_vehicle/wheeled_vehicle/ChWheeledVehicleVisualSystemIrrlicht.h"
#include "chrono_models/vehicle/gator/Gator.h"
#include "chrono_thirdparty/filesystem/path.h"
#include "chrono_sensor/sensors/Sensor.h"
#include "chrono_sensor/sensors/ChCameraSensor.h"
#include "chrono_sensor/sensors/ChLidarSensor.h"
#include "chrono_sensor/ChSensorManager.h"
#include "chrono_sensor/filters/ChFilterAccess.h"
#include "chrono_sensor/filters/ChFilterPCfromDepth.h"
#include "chrono_sensor/filters/ChFilterVisualize.h"
#include "chrono_sensor/filters/ChFilterSave.h"
#include "chrono_sensor/filters/ChFilterSavePtCloud.h"
#include "chrono_sensor/filters/ChFilterVisualizePointCloud.h"
#include "chrono_sensor/filters/ChFilterAccess.h"
#include "chrono_sensor/filters/ChFilterVisualize.h"
#include "chrono_sensor/sensors//ChSensorBuffer.h"
#include <iostream>using namespace chrono;
using namespace chrono::irrlicht;
using namespace chrono::vehicle;
using namespace chrono::vehicle::gator;
using namespace chrono::sensor;// =============================================================================// Initial vehicle location and orientation
ChVector<> initLoc(0, 0, 0.5);
ChQuaternion<> initRot(1, 0, 0, 0);// Visualization type for vehicle parts (PRIMITIVES, MESH, or NONE)
VisualizationType chassis_vis_type = VisualizationType::PRIMITIVES;
VisualizationType suspension_vis_type = VisualizationType::PRIMITIVES;
VisualizationType steering_vis_type = VisualizationType::PRIMITIVES;
VisualizationType wheel_vis_type = VisualizationType::PRIMITIVES;
VisualizationType tire_vis_type = VisualizationType::PRIMITIVES;// Collision type for chassis (PRIMITIVES, HULLS, or NONE)
CollisionType chassis_collision_type = CollisionType::NONE;// Type of tire model (RIGID, TMEASY)
TireModelType tire_model = TireModelType::TMEASY;// Rigid terrain
RigidTerrain::PatchType terrain_model = RigidTerrain::PatchType::BOX;// Contact method
ChContactMethod contact_method = ChContactMethod::NSC;// Simulation step sizes
double step_size = 1e-3;
double tire_step_size = step_size;// Time interval between two render frames
double render_step_size = 1.0 / 50;  // FPS = 50// SENSOR PARAMETERS
// Save sensor data
bool sensor_save = false;// Visualize sensor data
bool sensor_vis = true;// =============================================================================int main(int argc, char* argv[]) {GetLog() << "Copyright (c) 2017 projectchrono.org\nChrono version: " << CHRONO_VERSION << "\n\n";chrono::SetChronoDataPath("E:/codeGit/chrono/chrono/build/data/");              // change the default data loading path.chrono::vehicle::SetDataPath("E:/codeGit/chrono/chrono/build/data/vehicle/");              // change the vehicle data path// --------------// Create vehicle// --------------Gator gator;gator.SetContactMethod(contact_method);gator.SetChassisCollisionType(chassis_collision_type);gator.SetChassisFixed(false);gator.SetInitPosition(ChCoordsys<>(initLoc, initRot));gator.SetTireType(tire_model);gator.SetTireStepSize(tire_step_size);gator.SetAerodynamicDrag(0.5, 5.0, 1.2);gator.Initialize();gator.SetChassisVisualizationType(chassis_vis_type);gator.SetSuspensionVisualizationType(suspension_vis_type);gator.SetSteeringVisualizationType(steering_vis_type);gator.SetWheelVisualizationType(wheel_vis_type);gator.SetTireVisualizationType(tire_vis_type);// Associate a collision systemgator.GetSystem()->SetCollisionSystemType(ChCollisionSystem::Type::BULLET);// ------------------// Create the terrain// ------------------RigidTerrain terrain(gator.GetSystem());ChContactMaterialData minfo;minfo.mu = 0.9f;minfo.cr = 0.01f;minfo.Y = 2e7f;auto patch_mat = minfo.CreateMaterial(contact_method);std::shared_ptr<RigidTerrain::Patch> patch;patch = terrain.AddPatch(patch_mat, CSYSNORM, 100.0, 100.0);patch->SetTexture(vehicle::GetDataFile("terrain/textures/tile4.jpg"), 200, 200);patch->SetColor(ChColor(0.8f, 0.8f, 0.5f));terrain.Initialize();auto ground_body = patch->GetGroundBody();      // ground_body: ChBody 是地形的ChBodyauto vis_mat1 = chrono_types::make_shared<ChVisualMaterial>();vis_mat1->SetKdTexture(vehicle::GetDataFile("terrain/textures/grass.jpg"));         // Kd, Ks, Ke:一些材质的反射、发光等设定。vis_mat1->SetWeightTexture(GetChronoDataFile("sensor/textures/weight1.png"));       // 两种地形材料的混合权重。weight1和2是互补的。vis_mat1->SetSpecularColor({ .0f, .0f, .0f });vis_mat1->SetRoughness(1.f);vis_mat1->SetUseSpecularWorkflow(false);auto vis_mat2 = chrono_types::make_shared<ChVisualMaterial>();vis_mat2->SetKdTexture(vehicle::GetDataFile("terrain/textures/dirt.jpg"));vis_mat2->SetWeightTexture(GetChronoDataFile("sensor/textures/weight2.png"));vis_mat2->SetSpecularColor({ .0f, .0f, .0f });vis_mat2->SetRoughness(1.f);vis_mat2->SetUseSpecularWorkflow(false);auto visual_shape = ground_body->GetVisualModel()->GetShape(0);visual_shape->SetMaterial(0, vis_mat1);         // 将第i个material设置为某个特定的materialvisual_shape->AddMaterial(vis_mat2);// -------------------------------------// Create the vehicle Irrlicht interface// -------------------------------------auto vis = chrono_types::make_shared<ChWheeledVehicleVisualSystemIrrlicht>();vis->SetWindowTitle("Gator Demo");vis->SetChaseCamera(ChVector<>(0.0, 0.0, 2.0), 5.0, 0);vis->Initialize();vis->AddTypicalLights();vis->AddSkyBox();vis->AddLogo();vis->AttachVehicle(&gator.GetVehicle());// ------------------------// Create the driver system// ------------------------// Create the interactive driver systemChInteractiveDriverIRR driver(*vis);// Set the time response for steering and throttle keyboard inputs.double steering_time = 1.0;  // time to go from 0 to +1 (or from 0 to -1)double throttle_time = 1.0;  // time to go from 0 to +1double braking_time = 0.3;   // time to go from 0 to +1driver.SetSteeringDelta(render_step_size / steering_time);driver.SetThrottleDelta(render_step_size / throttle_time);driver.SetBrakingDelta(render_step_size / braking_time);driver.Initialize();// 传感器部分auto manager = chrono_types::make_shared<ChSensorManager>(gator.GetSystem());manager->scene->AddPointLight({ 100, 100, 100 }, { 2, 2, 2 }, 5000);auto lidar_extrinsics = chrono::ChFrame<double>({ 0, 0, 1 }, Q_from_AngAxis(0, { 1, 0, 0 }));// Lidar from JSON file - Velodyne VLP-16auto vlp16 = chrono::sensor::Sensor::CreateFromJSON(GetChronoDataFile("sensor/json/Velodyne/HDL-32E.json"), gator.GetChassisBody(), lidar_extrinsics);vlp16->PushFilter(chrono_types::make_shared<ChFilterSavePtCloud>("C:/Users/larrydong/Desktop/lidar_output/"));  // 包含这个filter,在每次Apply对应的filter时(update中),会执行保存到文件,并输出Beam countmanager->AddSensor(vlp16);// ---------------// Simulation loop// ---------------// output vehicle massstd::cout << "VEHICLE MASS: " << gator.GetVehicle().GetMass() << std::endl;// Number of simulation steps between miscellaneous eventsint render_steps = (int)std::ceil(render_step_size / step_size);// Initialize simulation frame countersint step_number = 0;int render_frame = 0;float orbit_radius = 10.f;float orbit_rate = 1;ChRealtimeStepTimer realtime_timer;         // Chwhile (vis->Run()) {double time = gator.GetSystem()->GetChTime();chrono::sensor::UserXYZIBufferPtr data_ptr;data_ptr = vlp16->GetMostRecentBuffer< chrono::sensor::UserXYZIBufferPtr>();if (data_ptr->Buffer) {using namespace std;cout << "==>    Width: " << data_ptr->Width << ", height: " << data_ptr->Height << ",  ts: " << data_ptr->TimeStamp << ", launched count: " << data_ptr->LaunchedCount << endl;}manager->Update();// Render scene and output POV-Ray dataif (step_number % render_steps == 0) {vis->BeginScene();vis->Render();              // 这一步更新的lidar?vis->EndScene();render_frame++;}// Get driver inputsDriverInputs driver_inputs = driver.GetInputs();// Update modules (process inputs from other modules)driver.Synchronize(time);terrain.Synchronize(time);gator.Synchronize(time, driver_inputs, terrain);vis->Synchronize(time, driver_inputs);// Advance simulation for one timestep for all modulesdriver.Advance(step_size);terrain.Advance(step_size);gator.Advance(step_size);vis->Advance(step_size);// Increment frame numberstep_number++;// Spin in place for real time to catch uprealtime_timer.Spin(step_size);}return 0;
}

还是建议参考官方的两个demo:

在这里插入图片描述

5、小结

吐槽一下Chrono的官方文档,有些内容讲的真的不透彻;

个人建议:采用Filter的方式输出lidar数据,避免用Buffer的方式判断有无更新、而且效率也不一定高。Filter的输出在“sensor更新->延迟->Advance”后存储,文件名是“编号.csv”,可以通过采集频率确定每个编号对应的时间戳。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/687293.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【LeetCode: 429. N 叉树的层序遍历 + BFS】

&#x1f680; 算法题 &#x1f680; &#x1f332; 算法刷题专栏 | 面试必备算法 | 面试高频算法 &#x1f340; &#x1f332; 越难的东西,越要努力坚持&#xff0c;因为它具有很高的价值&#xff0c;算法就是这样✨ &#x1f332; 作者简介&#xff1a;硕风和炜&#xff0c;…

Landsat8_C2_SR数据集是经大气校正后的地表反射率数据

数据名称&#xff1a; Landsat8_C2_SR 数据来源&#xff1a; USGS 时空范围&#xff1a; 2020年1月-2023年3月 空间范围&#xff1a; 全国 数据简介&#xff1a; Landsat8_C2_SR数据集是经大气校正后的地表反射率数据&#xff0c;属于Collection2的二级数据产品&#…

springboot196高校教师科研管理系统

Spring Boot高校教师科研管理系统设计与实现 摘 要 社会发展日新月异&#xff0c;用计算机应用实现数据管理功能已经算是很完善的了&#xff0c;但是随着移动互联网的到来&#xff0c;处理信息不再受制于地理位置的限制&#xff0c;处理信息及时高效&#xff0c;备受人们的喜…

FlashMeeting(基于FFmpeg+openCV)视频语音通讯系统

Web端体验地址&#xff1a;https://download.csdn.net/download/XiBuQiuChong/88805337 客户端下载地址&#xff1a;https://download.csdn.net/download/XiBuQiuChong/88805337 FlashMeeting(基于FFmpegopenCV)是一整套先进的以FFmpegopenCV技术为基础的视频语音通讯系统。利…

ArcGIS学习(八)基于GIS平台的控规编制办法

ArcGIS学习(八)基于GIS平台的控规编制办法 上一任务我们学习了”如何进行图片数据的矢量化?" 这一关我们来学习一个比较简单的案例一一”如何在ArcGIS中录入控规指标,绘制控规图纸?" 首先,先来看看这个案例的分析思路以及导入CAD格式的控规图纸。 接着,来看…

Eclipse - Expressions Add Watch Expression

Eclipse - Expressions & Add Watch Expression References Window -> Show View -> Other… Show View -> Debug -> Expressions -> Open Debug 模式下出现 Expressions 窗口 Debug 模式下&#xff0c;如果需要查看指定变量或者返回函数的值&#xff0c;直…

19.Qt 组合框的实现和应用

目录 前言&#xff1a; 技能&#xff1a; 内容&#xff1a; 1. 界面 2.槽 3.样式表 参考&#xff1a; 前言&#xff1a; 学习QCombox控件的使用 技能&#xff1a; 简单实现组合框效果 内容&#xff1a; 1. 界面 在ui编辑界面找到input widget里面的comboBox&#xff…

源支付V7最新V2.8.6文明版

源支付V7最新V2.8.6文明版 本版不需要授权码 注&#xff1a;开发不易&#xff0c;仅限交流学习使用&#xff0c;如商业使用&#xff0c;请支持正版&#xff01; 轻量化的界面UI,提供更加便捷的操作体验,让您的系统一目了然 推荐支付宝当面付-免CK-商家版&#xff0c;微信推荐…

利用python解决猴子吃桃问题

1 问题 如何运用python程序解决有趣的猴子吃桃数学问题 问题&#xff1a;猴子第一天摘下若干个桃子&#xff0c;当即吃了一半&#xff0c;还不过瘾&#xff0c;又多吃了一个第二天早上又将剩下的桃子吃掉一半&#xff0c;又多吃了一个。以后每天早上都吃了前一天剩下的一半零一…

书生浦语-模型微调

大语言模型微调 指令微调的流程 LoRA(旁路分支微调) Xtuner微调框架 微调训练 作业 微调作业需要多训练几个epoch&#xff0c;这里训练了16个epoch

Google Gemini 1.5:引领跨模态AIGC信息分析理解与视频内容推理的新篇章,与 Open AI 决一高下!

Gemini 1.5具有100万token的上下文理解能力&#xff0c;是目前最强&#xff01;具有跨模态理解和推理&#xff1a;能够对文本、代码、图像、音频和视频进行高度复杂的理解和推理。允许分析1小时视频、11小时音频、超过30,000行代码或超过700,000字的文本。不过谷歌这个Gemini 1…

Puppeteer 使用实战:如何将自己的 CSDN 专栏文章导出并用于 Hexo 博客(一)

文章目录 效果展示说明利用工具整体思路Puppeteer 使用笔记保持登录状态打开新的页面点击 dialog跳转页面设置页面可见窗口大小寻找元素等待元素出现 整体代码 效果展示 说明 看了看网上很少做这个功能&#xff0c;但是我有这个需求&#xff0c;就抽出时间写了个简单的工具目前…

19-k8s的附加组件-coreDNS组件

一、概念 coreDNS组件&#xff1a;就是将svc资源的名称解析成ClusterIP&#xff1b; kubeadm部署的k8s集群自带coreDNS组件&#xff0c;二进制部署需要自己手动部署&#xff1b; [rootk8s231 ~]# kubectl get pods -o wide -A k8s系统中安装了coreDNS组件后&#xff0c;会有一个…

解锁Spring Boot中的设计模式—05.策略模式:探索【策略模式】的奥秘与应用实践!

1.策略者工厂模式&#xff08;Map版本&#xff09; 1.需求背景 假设有一个销售系统&#xff0c;需要根据不同的促销活动对商品进行打折或者其他形式的优惠。这些促销活动可以是针对不同商品类别的&#xff0c;比如男装、女装等。 2.需求实现 活动策略接口&#xff1a;定义了…

Java:集合以及集合进阶 --黑马笔记

一、集合概述和分类 1.1 集合的分类 除了ArrayList集合&#xff0c;Java还提供了很多种其他的集合&#xff0c;如下图所示&#xff1a; 我想你的第一感觉是这些集合好多呀&#xff01;但是&#xff0c;我们学习时会对这些集合进行分类学习&#xff0c;如下图所示&#xff1a;…

javaweb学习day03(JS+DOM)

一、javascript入门 1 官方文档 地址: https://www.w3school.com.cn/js/index.asp离线文档: W3School 离线手册(2017.03.11 版).chm 2 基本说明 JavaScript 能改变 HTML 内容&#xff0c;能改变 HTML 属性&#xff0c;能改变 HTML 样式 (CSS)&#xff0c;能完成 页面的数据…

K8s进阶之路-Pod的生命周期

Pod创建过程&#xff1a; 首先创建一个pod&#xff0c;然后创建一个API Server 和 Etcd【把创建出来的信息存储在etcd中】 然后创建 Scheduler&#xff0c;监控API Server是否有新的Pod&#xff0c;如果有的话&#xff0c;会通过调度算法&#xff0c;把pod调度某个node上 在nod…

HDR 摄影

HDR 摄影&#xff0c;即高动态范围 High Dynamic Range摄影&#xff0c;旨在通过合并不同曝光值的照片来捕捉场景中从最亮到最暗部分的全部细节。 这种技术对于在一个图像中展现广泛的亮度范围特别有用&#xff0c;尤其是在自然光线条件下&#xff0c;如直射日光或阴影区域&…

BUGKU-WEB source

题目描述 题目截图如下&#xff1a; 进入场景看看&#xff1a; 解题思路 看源码&#xff0c;看F12网络请求没有东西只能老老实实按照提示用Linux去扫描目录 相关工具 kali虚拟机安装gobuster 或者dirsearch 解题步骤 先查看源码&#xff1a; flag{Zmxhz19ub3RfaGvyzS…

枚举,#define,C中程序内存区域划分

目录 一、枚举 1.1枚举类型的声明 1.2枚举类型的优点 1.3枚举类型的使用 二、#define定义常量 三、C中程序内存区域划分 一、枚举 1.1枚举类型的声明 枚举顾名思义就是⼀⼀列举。 把可能的取值⼀⼀列举。 比如我们现实生活中&#xff1a; ⼀周的星期⼀到星期日是有限…