【CVPR'23】CompletionFormer:用于深度补全的 Transformer 网络!
- 摘要
- 方法
-
- 3.1 RGB 和深度嵌入
- 3.2 联合卷积注意力和 Transformer 编码器
- 3.3 解码器
- 3.4 SPN 精化和损失函数
- 主要贡献
- 实验结果
论文地址:https://openaccess.thecvf.com/content/CVPR2023/papers/Zhang_CompletionFormer_Depth_Completion_With_Convolutions_and_Vision_Transformers_CVPR_2023_paper.pdf
开源代码:https://github.com/youmi-zym/CompletionFormer
摘要
CompletionFormer 结合卷积神经网络(CNN)和 Vision Transformer,提出了一种联合卷积注意力和 Transformer 块(JCAT),用于深度补全任务。该方法将卷积的局部连接性和 Transf