教育论文网

基于神经网络的短文本语义相似度计算方法研究

论文目录
摘要第1-7页
abstract第7-8页
第一章 绪论第12-20页
    1.1 研究背景第12-13页
    1.2 国内外研究现状第13-17页
        1.2.1 传统的文本相似度计算第13页
        1.2.2 基于神经网络的文本相似度计算第13-17页
    1.3 研究内容及意义第17-19页
    1.4 论文组织结构第19页
    1.5 本章小结第19-20页
第二章 相关理论知识和关键性技术第20-37页
    2.1 短文本语义相似度的基本概念第20页
    2.2 词向量第20-23页
        2.2.1 Word2Vec第21-22页
        2.2.2 Glove第22页
        2.2.3 ELMo第22-23页
    2.3 神经网络第23-27页
    2.4 卷积神经网络第27-29页
    2.5 循环神经网络第29-31页
    2.6 注意力机制第31-35页
        2.6.1 注意力机制的介绍第31-32页
        2.6.2 注意力机制的计算第32-33页
        2.6.3 自注意力机制第33-35页
    2.7 Siamese网络第35页
    2.8 本章小结第35-37页
第三章 BERT文本表示模型及其局限性第37-47页
    3.1 BERT文本表示模型第37-42页
        3.1.1 Multi-Head Attention第38-39页
        3.1.2 Transformer模型第39-40页
        3.1.3 BERT模型第40-42页
    3.2 BERT模型的表征能力第42-45页
        3.2.1 模型规模第42页
        3.2.2 模型预训练第42-44页
        3.2.3 模型微调第44-45页
    3.3 BERT模型局限性第45-46页
    3.4 本章小结第46-47页
第四章 基于神经网络的短文本语义相似度算法第47-57页
    4.1 基于多种注意力机制-LSTM聚合网络的BERT微调模型第47-52页
        4.1.1 输入层第49页
        4.1.2 编码层第49-50页
        4.1.3 匹配层第50-51页
        4.1.4 聚合层第51-52页
        4.1.5 输出层第52页
    4.2 基于MatchPyramid结构的BERT微调模型第52-56页
    4.3 本章小结第56-57页
第五章 实验结果与分析第57-71页
    5.1 数据集第57-60页
        5.1.1 MRPC第57-58页
        5.1.2 SNLI第58-59页
        5.1.3 WikiQA第59-60页
    5.2 实验设置第60-61页
    5.3 评价指标第61-63页
        5.3.1 Accuracy和 F1 介绍第61-62页
        5.3.2 MAP和 MRR第62-63页
    5.4 实验结果第63-70页
        5.4.1 释义识别任务实验结果第63-65页
        5.4.2 自然语言推理任务实验结果第65-66页
        5.4.3 答案选择任务实验结果第66-67页
        5.4.4 各种注意力函数的影响第67-68页
        5.4.5 MatchPyramid-BERT模型和MALSTM-BERT模型对比结果第68-69页
        5.4.6 模型性能比较第69-70页
    5.5 本章小结第70-71页
第六章 总结与展望第71-73页
    6.1 总结第71-72页
    6.2 展望第72-73页
致谢第73-74页
参考文献第74-79页
攻读学位期间取得的成果第79页

本篇论文共79页,点击 这进入下载页面

 
 
Copyright(C) All Rights Reserved
客服QQ:304386486
目录由用户 jiangxiangfe** 提供,作者删除入口请点击这里