您好,欢迎来到欧得旅游网。
搜索
您的当前位置:首页CVPR 2020——FPConv: Learning Local Flattening for Point Convolution

CVPR 2020——FPConv: Learning Local Flattening for Point Convolution

来源:欧得旅游网

论文:
源码:

Abstract

  • FPConv,一种专为3D点云分析而设计的新颖表面样式卷积运算符。
  • 与以前的方法不同,FPConv不需要转换为3D网格或图形之类的中间表示形式,而是可以直接处理点云的表面几何形状
  • 更具体地说,对于每个点,FPConv通过自动学习权重图以将周围的点柔和地投影到2D网格上来执行局部展平
  • 规则2D卷积因此可以用于有效的特征学习。
  • FPConv可以轻松地集成到各种网络体系结构中,以执行3D对象分类和3D场景分割等任务,并可以与现有的体素类型卷积实现可比的性能。
  • 实验表明FPConv可以作为体素卷积的补充,联合训练它们可以进一步提高总体性能,从而达到最新的结果

(一) Introduction

  • FPConv,这是一种针对点云的新卷积运算。它可以直接在几何局部表面上工作,而无需任何中间网格或图形表示。
  • 以projection-interpolation的方式工作,但更为通用和隐含。
  • 可以将投影和插值简化为单个权重图学习过程。
  • FPConv并未投影到切线平面上进行卷积,而是学习了如何沿局部曲面分散每个点的卷积权重,这对各种输入数据更鲁棒,并大大提高了表面样式卷积的性能。
  • 作为本地特征学习模块,FPConv可以与经典神经网络体系结构中的其他操作进一步集成,并可以处理各种分析任务。
  • FPConv在相对平坦的区域表现更好,因此可以作为体素工作的补充,联合训练有助于将整体表现提升为最新成果。

主要贡献:

(二)FPConv

任务: 回顾沿点云表面卷积的定义,然后将其简化为离散设置下的权重学习问题。

2.1. Learn Local Flattening

符号:

  • p p p 是来自点云 P 的点。
  • F ( p ) F(p) F(p)是定义在点上的标量函数。
  • F ( p ) F(p) F(p)可以对来自中间网络层的信号进行编码,例如颜色,几何形状或特征。
  • N ( p ) N(p) N(p) 表示为以 p p p 为中心的局部点云补丁,其中 N ( p ) = { q i = q i − p ∣ ∥ q i − p ∥ 2 < ρ , q i ∈ P } N(p)=\left \{q_{i}=q_{i}-p|\left \| q_{i}-p\right \|_{2}<\rho ,q_{i}\in P\right \} N(p)={qi=qipqip2<ρ,qiP},其中 ρ ∈ R ρ∈R ρR为所选半径。

Convolution on local surface:

为了使 F F F围绕曲面卷积,首先将其扩展到连续曲面上的连续函数。引入一个带有连续信号 S ( u ) S(u) S(u)的虚拟2D平面 S S S以及将 N ( p ) N(p) N(p)映射到S上的映射 π ( ⋅ ) π(·) π()

S ( π ( q i ) ) = F ( q i ) − − − − − − ( 1 ) S(\pi (q_{i}))= F(q_{i}) ------(1) S(π(qi))=F(qi)(1)

p p p 处的卷积定义为:

x ( p ) = ∫ S c ( u ) S ( u ) d u − − − − − ( 2 ) x(p)=\int_{S}^{}c(u)S(u)du -----(2) x(p)=Sc(u)S(u)du(2)

其中 c ( u ) c(u) c(u)是卷积核。

下面描述如何将上述卷积公式化为权重学习问题:

Local flattening by learning projection weights:

π ( ⋅ ) π(·) π() N ( p ) N(p) N(p)将被映射为 S S S中的分散点,因此用一种插值方法来估计全信号函数 S ( u ) S(u) S(u),如等式3所示:

S ( u ) = ∑ i w ( u , π ( q i ) ) S ( π ( q i ) ) − − − − ( 3 ) S(u)=\sum_{i}^{} w(u,\pi (q_{i}))S(\pi (q_{i}))----(3) S(u)=iw(u,π(qi))S(π(qi))(3)

如果将 S S S 离散为 M w × M h M_{w}\times M_{h} Mw×Mh大小的网格平面。对于每个网格 S ( v j ) S(v_{j}) S(vj),其中 { 1 , 2 , . . . , M w × M h } \left \{1,2,...,M_{w}\times M_{h}\right \} {1,2,...,Mw×Mh},可以从等式1和等式3中得出:

S ( v j ) = ∑ j i F ( q i ) − − − − ( 4 ) S(v_{j})=\sum_{ji}^{} F(q_{i})----(4) S(vj)=jiF(qi)(4)

w j i = w ( v j , π ( q i ) ) w_{ji}=w(v_{j},\pi (q_{i})) wji=w(vj,π(qi))

可以用近似离散的形式将等式2重写为:
x ( p ) = ∫ S c ( u ) S ( u ) d u = ∑ j c j ∑ i w j i F ( q i ) = M c ∗ ( W f T × F ( p ) ) − − − − ( 5 ) x(p)=\int_{S}^{}c(u)S(u)du=\sum_{j}^{}c_{j}\sum_{i}^{}w_{ji}F(q_{i})=M_{c}\ast (W_{f}^{T}\times F(p))----(5) x(p)=Sc(u)S(u)du=jcjiwjiF(qi)=Mc(WfT×F(p))(5)
c j c_j cj是离散卷积核权重,
j j j属于 { 1 , 2 , . . . , M w × M h } \left \{1,2,...,M_{w}\times M_{h}\right \} {1,2,...,Mw×Mh}
L = M w × M h L=M_{w}\times M_{h} L=Mw×Mh
W f ∈ R N × L W_{f}\in R^{N\times L} WfRN×L
W f ( i , j ) = w ( v j , π ( q i ) ) W_{f}(i,j)=w(v_{j},\pi (q_{i})) Wf(i,j)=w(vj,π(qi))
F ( p ) = ( F ( q 1 ) , . . . , F ( q N ) ) T ∈ R N × C F(p)=(F(q_{1}),...,F(q_{N}))^{T}\in R^{N\times C} F(p)=(F(q1),...,F(qN))TRN×C

可以看到投影和插值可以合并到一个权重矩阵 W f W_f Wf中,其仅取决于点位置,而不是中心点。

2.2. Implementation

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- ovod.cn 版权所有 湘ICP备2023023988号-4

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务