基于神经网络的短文本语义相似度计算方法研究 | |
论文目录 | |
摘要 | 第1-7页 |
abstract | 第7-8页 |
第一章 绪论 | 第12-20页 |
1.1 研究背景 | 第12-13页 |
1.2 国内外研究现状 | 第13-17页 |
1.2.1 传统的文本相似度计算 | 第13页 |
1.2.2 基于神经网络的文本相似度计算 | 第13-17页 |
1.3 研究内容及意义 | 第17-19页 |
1.4 论文组织结构 | 第19页 |
1.5 本章小结 | 第19-20页 |
第二章 相关理论知识和关键性技术 | 第20-37页 |
2.1 短文本语义相似度的基本概念 | 第20页 |
2.2 词向量 | 第20-23页 |
2.2.1 Word2Vec | 第21-22页 |
2.2.2 Glove | 第22页 |
2.2.3 ELMo | 第22-23页 |
2.3 神经网络 | 第23-27页 |
2.4 卷积神经网络 | 第27-29页 |
2.5 循环神经网络 | 第29-31页 |
2.6 注意力机制 | 第31-35页 |
2.6.1 注意力机制的介绍 | 第31-32页 |
2.6.2 注意力机制的计算 | 第32-33页 |
2.6.3 自注意力机制 | 第33-35页 |
2.7 Siamese网络 | 第35页 |
2.8 本章小结 | 第35-37页 |
第三章 BERT文本表示模型及其局限性 | 第37-47页 |
3.1 BERT文本表示模型 | 第37-42页 |
3.1.1 Multi-Head Attention | 第38-39页 |
3.1.2 Transformer模型 | 第39-40页 |
3.1.3 BERT模型 | 第40-42页 |
3.2 BERT模型的表征能力 | 第42-45页 |
3.2.1 模型规模 | 第42页 |
3.2.2 模型预训练 | 第42-44页 |
3.2.3 模型微调 | 第44-45页 |
3.3 BERT模型局限性 | 第45-46页 |
3.4 本章小结 | 第46-47页 |
第四章 基于神经网络的短文本语义相似度算法 | 第47-57页 |
4.1 基于多种注意力机制-LSTM聚合网络的BERT微调模型 | 第47-52页 |
4.1.1 输入层 | 第49页 |
4.1.2 编码层 | 第49-50页 |
4.1.3 匹配层 | 第50-51页 |
4.1.4 聚合层 | 第51-52页 |
4.1.5 输出层 | 第52页 |
4.2 基于MatchPyramid结构的BERT微调模型 | 第52-56页 |
4.3 本章小结 | 第56-57页 |
第五章 实验结果与分析 | 第57-71页 |
5.1 数据集 | 第57-60页 |
5.1.1 MRPC | 第57-58页 |
5.1.2 SNLI | 第58-59页 |
5.1.3 WikiQA | 第59-60页 |
5.2 实验设置 | 第60-61页 |
5.3 评价指标 | 第61-63页 |
5.3.1 Accuracy和 F1 介绍 | 第61-62页 |
5.3.2 MAP和 MRR | 第62-63页 |
5.4 实验结果 | 第63-70页 |
5.4.1 释义识别任务实验结果 | 第63-65页 |
5.4.2 自然语言推理任务实验结果 | 第65-66页 |
5.4.3 答案选择任务实验结果 | 第66-67页 |
5.4.4 各种注意力函数的影响 | 第67-68页 |
5.4.5 MatchPyramid-BERT模型和MALSTM-BERT模型对比结果 | 第68-69页 |
5.4.6 模型性能比较 | 第69-70页 |
5.5 本章小结 | 第70-71页 |
第六章 总结与展望 | 第71-73页 |
6.1 总结 | 第71-72页 |
6.2 展望 | 第72-73页 |
致谢 | 第73-74页 |
参考文献 | 第74-79页 |
攻读学位期间取得的成果 | 第79页 |
本篇论文共79页,点击
这进入下载页面 |
|
Copyright(C) All Rights Reserved |
客服QQ:304386486 |
目录由用户 jiangxiangfe** 提供,作者删除入口请点击这里 |