暂无个人介绍
##1.背景 近期,在NLP领域预训练模型受到了越来越多的关注。从ELMo到BERT,预训练模型在不同的NLP问题取得了很好的效果。本文参考To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks论文, 针对预训练模型BERT/EMLo,分析其在实际问题中的使用方式。 ##2.怎么用BERT
##引言 从计算到感知再到认知是业内学者都认同的人工智能技术发展路径。机器具备认知智能,进而实现推理、规划乃至联想和创作,在一定程度上需要一个充满知识的大脑,而信息抽取是获取知识的重要途径之一。 在具体的业务场景如搜索推荐,结构化的领域知识有利于实现细粒度文本理解,有利于实现精准的复杂问答,有利于
##引言 例子1:我用**小号**试探男友,他上当了。 例子2 奥巴马是美国__ 机器真的能理解**小号**是什么意思吗,机器真的能预测出奥巴马是美国**前总统**吗?事实上,自然语言具有创新性、递归性、多义性、主观性、社会性等特点,数据驱动的模型由于缺乏结构化的知识,在很多场景会闹出大笑话。从感知到认知是机器具备认知智能,进而实现推理、规划乃至联想和创作,在一定程度上需要一
摘要: "**如果**你愿意一层一层的剥开我的心·································**那么**你会坐牢的我跟你说"。自然语言就是这么神奇,句子中的长距离特征对于理解语义也非常关键,本文基于Tranformer、RNN、CNN、TCN分别概述近期学界对长句表示学习的诸多方法。 ## 1.长文本表示学习挑战 NLP任务的特点和图像有极大的不同,上图展示了
句子向量漫谈 # 背景 近期业务需要使用文本上下文语义特征,而将文本进行编码和表征是NLP最核心的技术之一,于是调研了表征文本的相关技术,总结如下, 以飨后人。 ## 混沌未开 在word2vec诞生之前,NLP中并没有一个统一的方法去表示一段文本。