[1] 参考论文信息
论文名称:《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》
发布期刊:《计算机科学》
期刊信息:CSCD扩展
论文写作分析摘要:
从内容上看,本文没有创新之处。
【注】:这种论文都能发CSCD扩展??
论文说了两个创新点:
1、本文对AlexNet-2网络进行优化,降低了模型参数的数量,支持更快的训练和学习。
2、在方法架构中添加了注意力机制,开始向每个输入赋予初始权重,并根据每个输入与最终预测结果的相关性,在训练过程中对这些权重进行调整。
【注】:但是,对AlexNet-2网络进行优化,只是在AlexNet-2基础上加了一些网络层,模型参数是变多了的,不知道为什么速度会快?其次,添加了注意力机制,也只是一笔带过。
[2] 参考论文分解
【AlexNet-2模型】
模型图如下:
上图左边是AlexNet-2原始模型,右边是“优化后的AlexNet-2”模型。嗯……大家自己品,这也叫改进模型了……他甚至不愿意画个模型图……
【注意力机制】
全文对注意力机制只有这么多描述。也没有示意图。
【实验结果】
这些baseline我觉得是没有说服力的,CNN、RCNN、DPCNN啥模型都没有。
最后,我觉得论文的名字有误导性。《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》,改进的到底是注意力机制、还是ALexNet-2?他这样起名字,可能是想混在一起。