【论文解析】StyleNeRF内容回顾+附录解读

StyleNeRF内容回顾+附录解读

  • StyleNeRF内容回顾
  • 附录解读
    • A1 IMPLICIT FIELDS MODELING
    • A2 Camera
    • A3 噪音注入的细节
    • A4 渐进训练

StyleNeRF内容回顾

  • 框架结合了NeRF和StyleGAN。仅使用volume rendering 来产生低分辨率的特征映射,再在此基础上通过上采样回复高分辨率。
  • 效果: StyleNerf可以快速和合成高分辨率图像,并且保留3D一致性,可以控制相机poses 和不同层级的风格。它还支持具有挑战性的任务,包括放大和缩小、样式混合、反转和语义编辑。

【论文解析】StyleNeRF内容回顾+附录解读_第1张图片
【论文解析】StyleNeRF内容回顾+附录解读_第2张图片

【论文解析】StyleNeRF内容回顾+附录解读_第3张图片

附录解读

A1 IMPLICIT FIELDS MODELING

用NeRF++建模背景
和NeRF++ 一样,我们将整个场景划分为前景和背景,其中背景用一个额外的网络建模,该网络将背景潜在代码(backgound latent codes)和一个使用倒置球面参数化(inverted sphere parameterization)进行转换的3D点x = (x, y, z)作为输入
在这里插入图片描述
Hierachical volume sampling

  • 对前景网络学习采用了Hierachical volume sampling。
  • 和NeRF不同的是,我们使用单一的网络粗采样和细采样来预测颜色和密度。

A2 Camera

我们根据数据集,从高斯分布或均匀分布手动设置参数φ和θ。

camera predictor:
1, 随机采样camera pose和latent codes 来渲染输出的图像。
2. 用预训练的ResNet18 初始化CNN-based encoder。
3. 用encoder 对输入图像的camera 参数进行预测。

【论文解析】StyleNeRF内容回顾+附录解读_第4张图片

A3 噪音注入的细节

为了提高合成质量和保持多视图一致性,我们设计了一种几何感知的噪声注入方法

  • 对于每个特征层的分辨率N2,我们使用基于预测密度的移动立方体提取底层几何。
  • 我们相应地设置volume分辨率为N3
  • 我们在提取的网格的每个顶点分配独立的高斯噪声,并从同一视角通过栅格化来渲染噪声图。
  • 在非线性激活之前,我们将产生的噪声注入到每一层

A4 渐进训练

【论文解析】StyleNeRF内容回顾+附录解读_第5张图片

你可能感兴趣的:(NeRF,StyleNeRF,GAN)