Ha-NeRF源码解读 train_mask_grid_sample

目录

背景:

(1)Ha_NeRF论文解读

(2)Ha_NeRF源码复现

(3)train_mask_grid_sample.py 运行

train_mask_grid_sample.py解读

1 NeRFSystem 模块 

2  forward()详解

3 模型训练tranining_step()详解 

4 模型验证validation_step()详解:

5 validation_epoch_end() 详解

 6 main() 详解


背景:

(1)Ha_NeRF论文解读

NeRF系列(4):Ha-NeRF: Hallucinated Neural Radiance Fields in the Wild论文解读_LeapMay的博客-CSDN博客文章浏览阅读389次,点赞3次,收藏3次。提出了一个外观幻化模块,用于处理时间变化的外观并将其转移到新视角上。考虑到旅游图像中的复杂遮挡情况,我们引入了一个抗遮挡模块,用于准确地分解静态物体以获取清晰的可见性。https://blog.csdn.net/qq_35831906/article/details/131247784?spm=1001.2101.3001.6650.5&utm_medium=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromBaidu~Rate-5-131247784-blog-131334579.235%5Ev38%5Epc_relevant_yljh&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromBaidu~Rate-5-131247784-blog-131334579.235%5Ev38%5Epc_relevant_yljh&utm_relevant_index=6

(2)Ha_NeRF源码复现

Ha-NeRF: Hallucinated Neural Radiance Fields in the Wild 代码复现与解读_LeapMay的博客-CSDN博客文章浏览阅读244次。code:本机环境: python 3.6.3,torch 1.8.1+cu102,pytorch-lightning 1.1.5。https://blog.csdn.net/qq_35831906/article/details/131334579

(3)train_mask_grid_sample.py 运行

python  train_mask_grid_sample.py   --root_dir ./data/IMC-PT/brandenburg_gate --dataset_name phototourism  --save_dir save  --img_downscale 2 --use_cache   --N_importanc
e 64 --N_samples 64  --num_epochs 20 --batch_size 1024  --optimizer adam --lr 5e-4 --lr_scheduler cosine  --exp_name exp_HaNeRF_Brandenburg_Gate  --N_emb_xyz 15 --N_vocab 1500 --use_mask --maskrs_max 5e-2 --maskrs_min 6e-3 --maskrs_
k 1e-3 --maskrd 0  --encode_a --N_a 48 --weightKL 1e-5 --encode_random --weightRecA 1e-3 --weightMS 1e-6  --num_gpus 1

train_mask_grid_sample.py解读

1 NeRFSystem 模块 

# 导入必要的库和模块
import torch
from models.nerf import NeRF  # 假设 NeRF 在 models.nerf 模块中定义
from models.networks import E_attr, implicit_mask, PosEmbedding  # 导入所需模块# 定义一个名为 NeRFSystem 的 PyTorch Lightning 模块类
class NeRFSystem(LightningModule):def __init__(self, hparams):super().__init__()  # 调用 LightningModule 构造函数self.hparams = hparams  # 存储模型的超参数self.loss = loss_dict['hanerf'](hparams, coef=1)  # 设置损失函数 'hanerf' 并指定系数为 1self.models_to_train = []  # 初始化一个列表,用于存储需要训练的模型self.embedding_xyz = PosEmbedding(hparams.N_emb_xyz - 1, hparams.N_emb_xyz)  # 用于 XYZ 坐标的位置编码self.embedding_dir = PosEmbedding(hparams.N_emb_dir - 1, hparams.N_emb_dir)  # 用于方向的位置编码self.embedding_uv = PosEmbedding(10 - 1, 10)  # 用于 UV 坐标的位置编码self.embeddings = {'xyz': self.embedding_xyz, 'dir': self.embedding_dir}  # 将位置编码存储在字典中# 如果需要属性编码if hparams.encode_a:self.enc_a = E_attr(3, hparams.N_a)  # 使用指定维度创建属性编码器self.models_to_train += [self.enc_a]  # 将编码器添加到需要训练的模型列表中self.embedding_a_list = [None] * hparams.N_vocab  # 初始化属性编码列表# 创建具有指定输入通道(XYZ 和方向)的粗糙 NeRF 模型self.nerf_coarse = NeRF('coarse', in_channels_xyz=6 * hparams.N_emb_xyz + 3, in_channels_dir=6 * hparams.N_emb_dir + 3)self.models = {'coarse': self.nerf_coarse}  # 将粗糙 NeRF 模型存储在字典中# 如果需要精细 NeRF 模型if hparams.N_importance > 0:# 创建具有指定输入通道(XYZ、方向和外观编码)的精细 NeRF 模型self.nerf_fine = NeRF('fine', in_channels_xyz=6 * hparams.N_emb_xyz + 3, in_channels_dir=6 * hparams.N_emb_dir + 3,encode_appearance=hparams.encode_a, in_channels_a=hparams.N_a,encode_random=hparams.encode_random)self.models['fine'] = self.nerf_fine  # 将精细 NeRF 模型存储在模型字典中self.models_to_train += [self.models]  # 将模型添加到需要训练的列表中# 如果需要使用遮罩if hparams.use_mask:self.implicit_mask = implicit_mask()  # 初始化隐式遮罩模型self.models_to_train += [self.implicit_mask]  # 将隐式遮罩添加到需要训练的列表中self.embedding_view = torch.nn.Embedding(hparams.N_vocab, 128)  # 创建一个嵌入视图self.models_to_train += [self.embedding_view]  # 将嵌入视图添加到需要训练的列表中
  1. NeRFSystem 类的初始化函数(__init__):

    • 首先调用super().__init__()来继承LightningModule的初始化方法。
    • self.hparams 用于存储模型的超参数。
    • self.loss 是模型的损失函数,通过loss_dict字典选择了名为 'hanerf' 的损失函数并初始化它。
    • self.models_to_train 是一个模型列表,用于存储需要训练的模型组件。
    • self.embedding_xyzself.embedding_dirself.embedding_uv 是位置嵌入(Positional Embedding)对象,用于编码不同类型的空间坐标。
    • 根据超参数的设定,如果 hparams.encode_a 为真,将创建属性编码器 self.enc_a,并将其加入 self.models_to_train 列表中。
    • 通过 NeRF 类创建了粗糙(coarse)和精细(fine)NeRF模型,将这些模型添加到 self.models 字典中,并将需要训练的模型也加入 self.models_to_train 列表中。
    • 如果 hparams.use_mask 为真,将创建隐式遮罩(implicit_mask)模型和一个嵌入层(embedding layer),同样加入了 self.models_to_train 列表中。
  2. forward 方法和其他训练、验证相关的方法并未在这段代码中提供,这些方法一般用于执行前向传播,定义损失计算方式,指定优化器和学习率调度器,加载数据等等           

  3. 总体来说,这段代码创建了一个 PyTorch Lightning 模型,其中包含了多个 NeRF 相关的组件,根据指定的超参数和需求组织了不同的模型和模型组件,并将它们用于训练过程。这个类的功能主要是提供一个结构化的接口,以便构建和管理神经体积渲染模型,使得模型的训练和验证能够更加方便和易于管理。

2  forward()详解

 def forward(self, rays, ts, whole_img, W, H, rgb_idx, uv_sample, test_blender):results = defaultdict(list)  # 使用 defaultdict 初始化结果存储kwargs = {}  # 初始化空字典 kwargs,用于存储关键字参数# 如果需要对属性进行编码if self.hparams.encode_a:if test_blender:# 如果是测试渲染器kwargs['a_embedded_from_img'] = self.embedding_a_list[0] if self.embedding_a_list[0] is not None else self.enc_a(whole_img)else:# 否则,在图像数据上进行属性编码kwargs['a_embedded_from_img'] = self.enc_a(whole_img)# 如果需要编码随机属性(self.hparams.encode_random为True):#  - 获取非空属性编码列表的索引idexlist,其中k为索引,v为属性编码值#  - 若idexlist为空,意味着属性编码列表中没有非空值的属性编码#    - 将a_embedded_random设置为a_embedded_from_img,表示使用来自整个图像的属性编码#  - 否则,从属性编码列表中随机选择一个索引对应的属性编码,作为随机属性编码if self.hparams.encode_random:idexlist = [k for k, v in enumerate(self.embedding_a_list) if v is not None]if len(idexlist) == 0:kwargs['a_embedded_random'] = kwargs['a_embedded_from_img']else:# 随机选择一个非空属性编码,作为随机属性编码random_index = random.choice(idexlist)kwargs['a_embedded_random'] = self.embedding_a_list[random_index]"""Do batched inference on rays using chunk."""B = rays.shape[0]  # 获取射线的批量大小for i in range(0, B, self.hparams.chunk):rendered_ray_chunks = render_rays(self.models,  # 使用预定义的模型self.embeddings,  # 使用预定义的嵌入rays[i:i + self.hparams.chunk],  # 批量处理的射线ts[i:i + self.hparams.chunk],  # 批量处理的时间点self.hparams.N_samples,  # 数值采样self.hparams.use_disp,  # 使用视差self.hparams.perturb,  # 扰动self.hparams.noise_std,  # 噪声标准差self.hparams.N_importance,  # 重要性数self.hparams.chunk,  # 有效的块大小self.train_dataset.white_back,  # 白色背景**kwargs  # 关键字参数)for k, v in rendered_ray_chunks.items():results[k] += [v]for k, v in results.items():results[k] = torch.cat(v, 0)  # 将结果连接起来if self.hparams.use_mask:if test_blender:results['out_mask'] = torch.zeros(results['rgb_fine'].shape[0], 1).to(results['rgb_fine'])else:uv_embedded = self.embedding_uv(uv_sample)results['out_mask'] = self.implicit_mask(torch.cat((self.embedding_view(ts), uv_embedded), dim=-1))if self.hparams.encode_a:results['a_embedded'] = kwargs['a_embedded_from_img']  # 存储属性编码结果if self.hparams.encode_random:results['a_embedded_random'] = kwargs['a_embedded_random']  # 存储随机属性编码结果rec_img_random = results['rgb_fine_random'].view(1, H, W, 3).permute(0, 3, 1, 2) * 2 - 1results['a_embedded_random_rec'] = self.enc_a(rec_img_random)self.embedding_a_list[ts[0]] = kwargs['a_embedded_from_img'].clone().detach()return results  # 返回结果字典

 在给定的 forward 方法中:

  1. results = defaultdict(list) - 创建一个defaultdict,用于存储模型前向传播的结果,其结构是列表形式的字典。在后续的循环中,这将存储渲染的射线结果。

  2. 通过 kwargs 存储关键字参数,这些参数将在 render_rays 函数中使用。kwargs 会根据不同条件动态更改。

  3. 对属性编码的处理:

    • if self.hparams.encode_a:如果需要对属性进行编码。
    • if test_blender:根据条件是否是测试渲染器来确定是否使用整体图像(whole_img)对属性进行编码。
    • if self.hparams.encode_random:如果需要对属性进行随机编码。
      • 通过 idexlist 获取非空属性编码列表的索引,如果列表为空,则默认使用整体图像对属性进行编码。
      • 否则,随机选择一个非空属性编码,并存储为随机属性编码。
  4. 循环 for i in range(0, B, self.hparams.chunk):这里的代码进行了分块的射线渲染,根据射线的数量和块大小分块进行渲染。得到的结果存储在 results 中。

  5. 对结果进行整理:

    • for k, v in results.items() 循环结果字典,将分块的结果连接起来。
    • 如果需要使用遮罩(use_mask):
      • 通过 if test_blenderelse,确定是否使用输出遮罩。遮罩将根据不同的条件生成不同的值。
  6. 如果需要对属性进行编码:

    • results['a_embedded']results['a_embedded_random'] 存储属性编码的结果。
    • results['a_embedded_random_rec'] 存储随机属性编码的结果。
    • self.embedding_a_list[ts[0]] 更新属性编码列表中的对应索引,将其设置为来自整体图像的属性编码的克隆值。
  7. 返回结果 results这些结果包括射线渲染的数据和属性编码的结果。

这段代码实现了射线渲染过程中对属性进行编码的功能,并存储了相关结果。

3 模型训练tranining_step()详解 

def training_step(self, batch, batch_nb):# 从批处理中提取数据rays, ts = batch['rays'].squeeze(), batch['ts'].squeeze()  # 提取射线和时间点rgbs = batch['rgbs'].squeeze()  # 提取 RGB 值uv_sample = batch['uv_sample'].squeeze()  # 提取 UV 样本# 检查是否需要编码属性或使用掩膜if self.hparams.encode_a or self.hparams.use_mask:whole_img = batch['whole_img']  # 提取整个图像rgb_idx = batch['rgb_idx']  # 提取 RGB 索引else:whole_img = Nonergb_idx = None# 从 RGB 值的平方根计算高度和宽度H = int(sqrt(rgbs.size(0)))W = int(sqrt(rgbs.size(0)))test_blender = False  # 设置 test_blender 标志# 执行前向传递以生成预测和损失results = self(rays, ts, whole_img, W, H, rgb_idx, uv_sample, test_blender)loss_d, AnnealingWeight = self.loss(results, rgbs, self.hparams, self.global_step)loss = sum(l for l in loss_d.values())  # 计算总损失# 记录与训练相关的指标with torch.no_grad():typ = 'fine' if 'rgb_fine' in results else 'coarse'  # 确定结果类型psnr_ = psnr(results[f'rgb_{typ}'], rgbs)  # 计算 PSNR 指标self.log('lr', get_learning_rate(self.optimizer))  # 记录学习率self.log('train/loss', loss)  # 记录总损失self.log('train/AnnealingWeight', AnnealingWeight)  # 记录 AnnealingWeightself.log('train/min_scale_cur', batch['min_scale_cur'])  # 记录最小规模# 记录各个损失for k, v in loss_d.items():self.log(f'train/{k}', v)self.log('train/psnr', psnr_)  # 记录 PSNR 指标# 特定步骤的可视化if (self.global_step + 1) % 5000 == 0:# 格式化图像、深度图和蒙版以进行可视化img = results[f'rgb_{typ}'].detach().view(H, W, 3).permute(2, 0, 1).cpu()img_gt = rgbs.detach().view(H, W, 3).permute(2, 0, 1).cpu()depth = visualize_depth(results[f'depth_{typ}'].detach().view(H, W))# 记录图像和可视化到实验日志器if self.hparams.use_mask:mask = results['out_mask'].detach().view(H, W, 1).permute(2, 0, 1).repeat(3, 1, 1).cpu()if 'rgb_fine_random' in results:img_random = results[f'rgb_fine_random'].detach().view(H, W, 3).permute(2, 0, 1).cpu()stack = torch.stack([img_gt, img, depth, img_random, mask])self.logger.experiment.add_images('train/GT_pred_depth_random_mask', stack, self.global_step)else:stack = torch.stack([img_gt, img, depth, mask])self.logger.experiment.add_images('train/GT_pred_depth_mask', stack, self.global_step)elif 'rgb_fine_random' in results:img_random = results[f'rgb_fine_random'].detach().view(H, W, 3).permute(2, 0, 1).cpu()stack = torch.stack([img_gt, img, depth, img_random])self.logger.experiment.add_images('train/GT_pred_depth_random', stack, self.global_step)else:stack = torch.stack([img_gt, img, depth])self.logger.experiment.add_images('train/GT_pred_depth', stack, self.global_step)return loss  # 返回计算的损失

以上代码是一个 PyTorch Lightning 中的 training_step 方法,用于执行一个训练步骤。它主要执行以下操作:

  1. 数据提取和预处理

    • 从传入的批量数据中提取射线、时间、RGB值和UV样本。
    • 根据属性编码和掩膜的需求,提取整个图像和RGB索引。
  2. 预测和损失计算

    • 对提取的数据执行前向传递,得到预测结果和损失值。
    • 根据损失结果计算总损失值,并在不需要梯度计算时计算 PSNR 指标。
  3. 记录指标和损失

    • 记录学习率、总损失、AnnealingWeight、最小规模以及各个损失值。
    • 记录 PSNR 指标作为训练指标。
  4. 特定步骤的可视化

    • 当全局步数是 5000 的倍数时,进行特定步骤的可视化。
    • 将图像、深度图像和mask以图像格式准备好。
    • 如果存在mask,将mask图、深度图、原始图像、预测图像、随机预测图像以图像堆叠的形式记录到实验日志器中。
    • 如果没有mask,将深度图、原始图像和预测图像以图像堆叠的形式记录到实验日志器中。
  5. 返回损失:返回计算得到的损失值。

这个方法主要负责训练过程中的模型训练、指标记录和可视化。

4 模型验证validation_step()详解:

def validation_step(self, batch, batch_nb):# 提取输入数据rays, ts = batch['rays'].squeeze(), batch['ts'].squeeze()rgbs = batch['rgbs'].squeeze()# 根据数据集名称设置 uv_sample、W 和 Hif self.hparams.dataset_name == 'phototourism':uv_sample = batch['uv_sample'].squeeze()WH = batch['img_wh']W, H = WH[0, 0].item(), WH[0, 1].item()else:W, H = self.hparams.img_whuv_sample = None# 处理需要属性编码、mask 或去遮挡处理的情况if self.hparams.encode_a or self.hparams.use_mask or self.hparams.deocclusion:if self.hparams.dataset_name == 'phototourism':whole_img = batch['whole_img']else:# 对于非 phototourism 数据集,构建张量表示原始图像whole_img = rgbs.view(1, H, W, 3).permute(0, 3, 1, 2) * 2 - 1rgb_idx = batch['rgb_idx']else:whole_img = Nonergb_idx = None# 根据数据集设置测试渲染器test_blender = (self.hparams.dataset_name == 'blender')# 进行前向传播results = self(rays, ts, whole_img, W, H, rgb_idx, uv_sample, test_blender)# 计算损失和其他评估指标loss_d, AnnealingWeight = self.loss(results, rgbs, self.hparams, self.global_step)loss = sum(l for l in loss_d.values())log = {'val_loss': loss}for k, v in loss_d.items():log[k] = v# 计算 PSNR 和 SSIMtyp = 'fine' if 'rgb_fine' in results else 'coarse'img = results[f'rgb_{typ}'].view(H, W, 3).permute(2, 0, 1).cpu()img_gt = rgbs.view(H, W, 3).permute(2, 0, 1).cpu()# 在第一个 batch 时计算并记录深度图像和 maskif batch_nb == 0:depth = visualize_depth(results[f'depth_{typ}'].view(H, W))if self.hparams.use_mask:mask = results['out_mask'].detach().view(H, W, 1).permute(2, 0, 1).repeat(3, 1, 1).cpu()if 'rgb_fine_random' in results:img_random = results[f'rgb_fine_random'].detach().view(H, W, 3).permute(2, 0, 1).cpu()stack = torch.stack([img_gt, img, depth, img_random, mask])self.logger.experiment.add_images('val/GT_pred_depth_random_mask', stack, self.global_step)else:stack = torch.stack([img_gt, img, depth, mask])self.logger.experiment.add_images('val/GT_pred_depth_mask', stack, self.global_step)elif 'rgb_fine_random' in results:img_random = results[f'rgb_fine_random'].detach().view(H, W, 3).permute(2, 0, 1).cpu()stack = torch.stack([img_gt, img, depth, img_random])self.logger.experiment.add_images('val/GT_pred_depth_random', stack, self.global_step)else:stack = torch.stack([img_gt, img, depth])self.logger.experiment.add_images('val/GT_pred_depth', stack, self.global_step)# 计算 PSNR 和 SSIM 并记录到日志psnr_ = psnr(results[f'rgb_{typ}'], rgbs)ssim_ = ssim(img[None, ...], img_gt[None, ...])log['val_psnr'] = psnr_log['val_ssim'] = ssim_return log  # 返回评估指标

这段代码是 PyTorch Lightning 中用于执行模型验证步骤的方法。

  1. 提取输入数据

    • 从输入批次中提取射线 rays、时间 ts 和颜色值 rgbs。对于特定数据集('phototourism'),还提取了 uv_sample 和图像宽高信息 WH
    • 根据数据集名称和条件,设置了 WH
  2. 处理编码、遮罩和去遮挡

    • 根据模型是否需要属性编码、遮罩或者去遮挡,从输入数据中提取相应的参数。对于特定数据集,整个图像 whole_img 和颜色索引 rgb_idx 也会被提取。
  3. 设置测试渲染器

    • 如果数据集是 'blender',则设置 test_blenderTrue
  4. 执行前向传播

    • 利用模型执行前向传播,计算输出 results
  5. 计算损失和评估指标

    • 利用计算得到的输出结果 results 计算损失 loss 和其他评估指标。将损失值和其他指标记录在 log 字典中。
  6. 图像和深度可视化

    • 计算得到 results 中的图像 img 和真实图像 img_gt,以及可能的深度图像 depth
    • 在第一个 batch 时,如果使用了 mask,计算 mask 和可能的随机图像 img_random,并将它们与其他图像一起记录到实验日志中。
  7. 计算 PSNR 和 SSIM

    • 利用计算得到的结果,计算 PSNR 和 SSIM,并将其记录在 log 字典中。
  8. 返回结果

    • 返回包含评估指标的 log 字典。

这个方法主要用于执行验证步骤,评估模型在给定数据集上的性能,并记录相应的指标。

5 validation_epoch_end() 详解

def validation_epoch_end(self, outputs):# 检查 outputs 的长度以决定是否更新全局变量的当前 epochif len(outputs) == 1:global_val.current_epoch = self.current_epoch  # 当 outputs 的长度为 1 时,将 global_val.current_epoch 设置为当前 self.current_epochelse:global_val.current_epoch = self.current_epoch + 1  # 否则,将 global_val.current_epoch 设置为当前 self.current_epoch + 1# 计算 outputs 中验证集上的损失、PSNR 和 SSIM 的平均值mean_loss = torch.stack([x['val_loss'] for x in outputs]).mean()  # 平均验证损失mean_psnr = torch.stack([x['val_psnr'] for x in outputs]).mean()  # 平均 PSNRmean_ssim = torch.stack([x['val_ssim'] for x in outputs]).mean()  # 平均 SSIM# 记录验证集指标到训练日志中self.log('val/loss', mean_loss)  # 记录平均验证损失self.log('val/psnr', mean_psnr, prog_bar=True)  # 记录平均 PSNR,并显示在进度条中self.log('val/ssim', mean_ssim, prog_bar=True)  # 记录平均 SSIM,并显示在进度条中# 如果使用遮罩,记录其他相关指标if self.hparams.use_mask:self.log('val/c_l', torch.stack([x['c_l'] for x in outputs]).mean())  # 记录 c_l 指标的平均值self.log('val/f_l', torch.stack([x['f_l'] for x in outputs]).mean())  # 记录 f_l 指标的平均值self.log('val/r_ms', torch.stack([x['r_ms'] for x in outputs]).mean())  # 记录 r_ms 指标的平均值self.log('val/r_md', torch.stack([x['r_md'] for x in outputs]).mean())  # 记录 r_md 指标的平均值

这个函数是 PyTorch Lightning 中用于在验证 epoch 结束时执行的方法。它的作用是整合并计算在整个验证集上的损失和指标,以便进行日志记录和报告。

让我们来解释一下这段代码的作用:

  1. 全局变量更新

    • 通过检查 outputs 的长度来决定是否在全局变量 global_val 中更新当前 epoch。如果 outputs 的长度为 1,则将 global_val.current_epoch 设置为当前的 self.current_epoch;否则,将 global_val.current_epoch 设置为当前的 self.current_epoch + 1
  2. 计算平均值

    • outputs 中提取所有 epoch 的验证损失、PSNR 和 SSIM,并计算它们的平均值。
    • 将这些平均值记录到训练日志中。
  3. 记录其他指标

    • 如果使用了遮罩 (use_mask),还记录了其他相关指标,如 c_lf_lr_msr_md 的平均值。

这个方法的主要作用是汇总整个验证集上的指标,并将这些指标记录在训练日志中,以便在训练过程中进行跟踪和分析。

 6 main() 详解

def main(hparams):# 创建 NeRFSystem 实例system = NeRFSystem(hparams)# 设置模型保存的检查点配置checkpoint_callback = ModelCheckpoint(filepath=os.path.join(hparams.save_dir, f'ckpts/{hparams.exp_name}', '{epoch:d}'),monitor='val/psnr',  # 监控 PSNR 指标mode='max',  # 以最大值作为监控模式save_top_k=-1  # 保存所有检查点)# 设置日志记录器logger = TestTubeLogger(save_dir=os.path.join(hparams.save_dir, "logs"),  # 日志保存路径name=hparams.exp_name,  # 实验名称debug=False,  # 调试模式create_git_tag=False,  # 是否创建 git taglog_graph=False  # 是否记录图表)# 设置训练器 Trainertrainer = Trainer(max_epochs=hparams.num_epochs,  # 最大 epoch 数checkpoint_callback=checkpoint_callback,  # 检查点配置resume_from_checkpoint=hparams.ckpt_path,  # 从检查点路径恢复logger=logger,  # 日志记录器weights_summary=None,  # 不显示权重摘要progress_bar_refresh_rate=hparams.refresh_every,  # 进度条刷新频率gpus=hparams.num_gpus,  # GPU 数量accelerator='ddp' if hparams.num_gpus > 1 else None,  # 使用分布式数据并行(如果有多个 GPU)num_sanity_val_steps=-1,  # 验证步数benchmark=True,  # 启用性能基准profiler="simple" if hparams.num_gpus == 1 else None  # 使用简单的性能分析器(单 GPU))# 开始模型训练trainer.fit(system)

        主函数主要是用于设置训练过程的配置,并调用 Trainer 来训练 NeRFSystem 模型。配置包括模型保存的检查点、日志记录器、训练器的设置等。Trainer 类是 PyTorch Lightning 提供的用于管理训练循环的高级接口。

if __name__ == '__main__':# 获取命令行参数作为超参数hparams = get_opts()# 调用主函数开始训练main(hparams)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/128428.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JavaScript设计模式之发布-订阅模式

发布者和订阅者完全解耦(通过消息队列进行通信) 适用场景:功能模块间进行通信,如Vue的事件总线。 ES6实现方式: class eventManager {constructor() {this.eventList {};}on(eventName, callback) {if (this.eventL…

[common c/c++] ring buffer/circular buffer 环形队列/环形缓冲区

前言: ring buffer / circular buffer 又名环形队列 / 环形缓冲区,其通过开辟固定尺寸的内存来实现反复复用同一块内存的目的。由于预先开辟了固定尺寸的内容,所以当数据满的时候,可以有两种处理方式,具体使用哪一种按…

HCL模拟器综合实验案例(2)

本案例提供给计算机网络专业学生以及参加新华三杯的同学进行学习 题目 由于公司并购前的历史原因导致双方使用不同的 OSPF 进程,经由总部技术部统一规划后再做调整,现阶段使用暂时过渡方案,即使用静态路由、OSPF、RIP、BGP多协议组网&#x…

协同办公系统:企业提质增效的利器

随着科技的不断发展,企业对于提高工作效率、优化管理流程、降低成本的需求日益迫切。协同办公系统应运而生,成为了许多企业提质增效的利器。那么,协同办公系统究竟是如何帮助企业实现这些目标的呢?本文将从以下几个方面进行详细阐…

微信小程序快速备案的通道揭秘方法

随着国家政策的调整,微信小程序备案已变得刻不容缓。传统备案路径较为繁琐,耗时较长,为解决此痛点,今天我们将揭示一个快速备案的新通道。 步骤1:探索智慧助手 打开微信,探索“智慧商家服务助手”公众号。…

NProgress顶部进度条的用法

大家打开一个网页的时候,会看到一个进度条,然后加载完成后进度条就消失了。这个呢,就是一个第三方的进度条库,叫做nprogress. 1.首先安装nprogress(咱直接用npm安装了) : npm install --save nprogress 2.然后在 router/index.j…

Mac允许任何来源的的安装包进行安装

首先打开终端,开启“任何来源”,执行如下命令: sudo spctl --master-disable 然后回车,继续输入密码(密码输入时是不可见的),然后回车。 接着打开【系统偏好设置】,选择【安全性与…

MySQL(6):多表查询

多表查询,也称为关联查询,指两个或更多个表一起完成查询操作。 前提条件: 这些一起查询的表之间是有关系的(一对一、一对多),它们之间一定是有关联字段,这个关联字段可能建立了外键,…

CSS3盒模型

CSS3盒模型规定了网页元素的显示方式,包括大小、边框、边界和补白等概念。2015年4月,W3C的CSS工作组发布了CSS3基本用户接口模块,该模块负责控制与用户接口界面相关效果的呈现方式。 1、盒模型基础 在网页设计中,经常会听到内容…

浅谈安科瑞电力监控系统在百事亚洲研发中心的应用

摘要:介绍百事亚洲研发中心,采用智能电力仪表、采集配电现场的各种电参量和开关信号。系统采用现场就地组网的方式,组网后通过现场总线通讯并远传至后台,通过Acrel-2000型电力监控系统实现配电所配电回路用电的实时监控和管理。 …

【AI视野·今日Robot 机器人论文速览 第六十一期】Tue, 24 Oct 2023

AI视野今日CS.Robotics 机器人学论文速览 Tue, 24 Oct 2023 Totally 50 papers 👉上期速览✈更多精彩请移步主页 Daily Robotics Papers Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for Autonomous Real-World Reinforcement Learning Autho…

全球互联网信息,中文内容只占1.3%,学好英语,这几条路子让你赚认知外的钱

在全世界的整个互联网上,中文内容只占1.3%,而英文内容接近60%,如果你不会英语,你的眼界和思维将局限在这1.3%里面。 单单就说赚钱这个事情,学好英语,你可以有很多特殊的路子赚到大钱,可以赚到你…

c语言练习(9周)(16~20)

输入12个一位整数,创建二维数组a[3][4],显示二维数组及各列的平均值,平均值四舍五入到小数点后一位。 题干输入12个一位整数,创建二维数组a[3][4],显示二维数组及各列的平均值,平均值四舍五入到小数点后一…

uni-app 应对微信小程序最新隐私协议接口要求的处理方法

这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助 一,问题起因 最新在开发小程序的时候,调用微信小程序来获取用户信息的时候经常报错一个问题 fail api scope is not declared in the privacy agreement,api更具公告…

STM32:AHT20温湿度传感器驱动程序开发

注:温湿度传感器AHT20数据手册.pdf http://www.aosong.com/userfiles/files/AHT20%E4%BA%A7%E5%93%81%E8%A7%84%E6%A0%BC%E4%B9%A6(%E4%B8%AD%E6%96%87%E7%89%88)%20B1.pdf 一、分析AHT数据手册文档 (1).准备工作 1.新建工程。配置UART2 2.配置I2C1为I2C标准模式&…

Rocky9 上安装 redis-dump 和redis-load 命令

一、安装依赖环境 1、依赖包 dnf -y install perl gcc gcc-c zlib-devel2、编译openssl 1.X ### 下载编译 wget https://www.openssl.org/source/openssl-1.1.1t.tar.gz tar xf openssl-1.1.1t.tar.gz cd openssl-1.1.1t ./config --prefix/usr/local/openssl make make ins…

Vue项目创建与启动(2023超详细的图文教程)

目录 一、下载node.js 二、下载vue-cli与webpack插件 三、项目初始化(项目配置详细信息) 四、项目启动 五、Vue项目工程结构(扩展知识) 一、下载node.js 1.检测是否已经安装过node.js 打开控制台,输入 npm -v如果有会显示对应版本 如果没有会显示…

Python框架之Flask入门和视图

一、Flask入门和视图 需要安装Pycharm专业版 1. Flask简介 Python后端的2个主流框架 Flask 轻量级框架Django 重型框架 Flask是一个基于Python实现的web开发微框架 官方文档:https://flask.palletsprojects.com/ 中文文档:https://dormousehole.readthe…

防范欺诈GPT

去年,ChatGPT的发布让全世界都感到惊讶和震惊。 突然间出现了一个平台,它比之前的任何其他技术都更深入地了解互联网。人工智能可以被训练成像阿姆一样说唱,以世界著名诗人的风格写作,并精确地翻译内容,以至于它似乎能…

【Unity实战】最全面的库存系统(二)

文章目录 先来看看最终效果前言箱子库存箱子存储物品玩家背包快捷栏满了,物品自动加入背包修复开着背包拾取物品不会刷新显示的问题将箱子库存和背包分开,可以同时打开完结先来看看最终效果 前言 本期紧跟着上期,继续来完善我们的库存系统,实现箱子库存和人物背包 箱子库…