基于深度学习的稀疏深度图补全 | |
论文目录 | |
摘要 | 第1-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第11-16页 |
1.1 选题背景与研究意义 | 第11-12页 |
1.2 稀疏深度图补全的国内外研究历史与现状 | 第12-13页 |
1.2.1 基于稀疏采样深度的深度预测 | 第12页 |
1.2.2 室内环境的深度图优化 | 第12页 |
1.2.3 来自单张RGB图像的深度计算 | 第12-13页 |
1.3 室外稀疏深度图补全工作的挑战 | 第13页 |
1.3.1 数据融合 | 第13页 |
1.3.2 对噪声的敏感性 | 第13页 |
1.3.3 遮挡 | 第13页 |
1.4 本文的主要贡献与创新 | 第13-14页 |
1.5 论文内容及章节安排 | 第14-16页 |
1.5.1 论文内容与研究技术路线 | 第14页 |
1.5.2 论文内容章节安排 | 第14-16页 |
第二章 深度卷积神经网络 | 第16-37页 |
2.1 常用深度卷积神经网络设计 | 第16-29页 |
2.1.1 堆叠式设计 | 第16-17页 |
2.1.2 模块化设计 | 第17-29页 |
2.2 模型训练优化器 | 第29-34页 |
2.2.1 梯度下降法 | 第29-30页 |
2.2.2 批量梯度下降法 | 第30页 |
2.2.3 随机梯度下降法 | 第30-31页 |
2.2.4 小批量梯度下降法 | 第31页 |
2.2.5 动量优化算法 | 第31-32页 |
2.2.6 自适应学习率优化算法 | 第32-34页 |
2.3 损失函数 | 第34-36页 |
2.3.1 交叉熵损失函数 | 第35页 |
2.3.2 绝对值损失函数和平方损失函数 | 第35-36页 |
2.3.3 神经网络模型训练方法 | 第36页 |
2.4 本章小结 | 第36-37页 |
第三章 稀疏深度数据预处理与稠密深度数据制作 | 第37-44页 |
3.1 数据源及其预处理 | 第37页 |
3.2 模拟仿真数据集 | 第37-38页 |
3.2.1 数据生成 | 第37-38页 |
3.2.2 好处 | 第38页 |
3.3 深度数据制作 | 第38-41页 |
3.3.1 室内场景 | 第38-39页 |
3.3.2 室外场景 | 第39-41页 |
3.4 稠密表面法向量数据制作 | 第41-42页 |
3.5 数据增强方法与配置 | 第42页 |
3.6 本章小结 | 第42-44页 |
第四章 稀疏深度图补全 | 第44-64页 |
4.1 传统编解码器结构 | 第44-45页 |
4.2 现有的稀疏深度图补全框架 | 第45-47页 |
4.2.1 结合自监督学习 | 第45-46页 |
4.2.2 结合多任务学习 | 第46-47页 |
4.2.3 结合网络的损失学习 | 第47页 |
4.3 本文提出的稀疏深度图补全框架 | 第47页 |
4.4 深度补全单元 | 第47-49页 |
4.5 基于注意力的整合 | 第49-51页 |
4.6 置信度预测 | 第51-52页 |
4.7 损失函数 | 第52页 |
4.8 实验结果 | 第52-56页 |
4.8.1 与当前最优结果比较 | 第52-54页 |
4.8.2 更多的定性的结果 | 第54页 |
4.8.3 消融实验 | 第54-56页 |
4.9 泛化能力 | 第56-57页 |
4.9.1 针对不同稀疏程度深度的鲁棒性 | 第56-57页 |
4.9.2 室内场景的深度补全 | 第57页 |
4.10 本章小结 | 第57-64页 |
第五章 全文总结 | 第64-66页 |
5.1 工作总结 | 第64-65页 |
5.2 后续工作展望 | 第61-66页 |
致谢 | 第66-67页 |
参考文献 | 第67-73页 |
攻读硕士学位期间取得的成果 | 第73页 |
本篇论文共73页,点击
这进入下载页面 |
|
Copyright(C) All Rights Reserved |
客服QQ:304386486 |
目录由用户 w** 提供,作者删除入口请点击这里 |