谷歌的人工智能团队在2020年计算机视觉和模式识别大会(CVPR)上分享了近70份涉及计算机视觉的研究论文,内容涵盖了对象映射与渲染、3D人类姿态生成、语义分割和透明对象关键点估计等。此外,以下是几篇与增强现实/虚拟现实领域相关的论文摘要:
1. "Local Deep Implicit Functions for 3D Shape":介绍了一种学习三维形状表示的方法,通过深度摄像头视图推断精确的表面重建和高效计算。
2. "GHUM & GHUML: Generative 3D Human Shape and Articulated Pose Models":提出了一个用于生成3D人类形状和姿态模型的深度学习框架。
3. "Deep Homography Estimation for Dynamic Scenes":探讨了处理动态场景的深度神经网络的设计和训练方法,用于估计动态场景的单应性。
4. "3D-MPA: Multi Proposal Aggregation for 3D Semantic Instance Segmentation":提出了一种基于三维点云的实例分割方法,通过投票和图卷积网络进行特征学习和聚合。
5. "KeyPose: Multi-View 3D Labeling and Keypoint Estimation for Transparent Objects":通过RGB立体输入,提出了一种用于透明对象的多视图3D标记和关键点估计方法。
6. "DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes":提出了一种快速的单级三维目标检测方法,能够同时检测对象并预测其形状。
这些论文展示了在计算机视觉和模式识别领域的最新研究进展,对于推动增强现实和虚拟现实技术的发展具有重要意义。