暂时未有相关云产品技术能力~
暂无个人介绍
CKY算法或维特比inside算法是成分句法分析的主要方法之一,但是当产生式数量特别大之后,时间复杂度也线性增大。可行的一种方法是剪枝,但是剪枝会造成准确率的下降。所以本文就提出了一种迭代的维特比句法分析算法,通过剪枝去除掉没用的边。实验表明,时间上加快了一个数量级,但是本文并没有说准确率怎么样。。。 本文用到的inside和outside算法之前已经介绍过了,详见PCFG中inside和outside算法详解。
多任务学习一般的模型是共享特征表示层,也就是最底层的特征表示层是共享的,上层的神经网络都是随具体任务而不同的。但是这有个问题,比如用LSTM对句子进行建模的时候,不同的短语的组合函数是一样的,比如动词+名词、形容词+名词。但是组合函数应该定义成不同的比较好,于是这篇文章提出了针对不同的任务,不同的时刻产生不同的参数矩阵的动态参数生成方法。
多任务学习一般的模型是共享特征表示层,也就是最底层的特征表示层是共享的,上层的神经网络都是随具体任务而不同的。但是这有个问题,比如用LSTM对句子进行建模的时候,不同的短语的组合函数是一样的,比如动词+名词、形容词+名词。但是组合函数应该定义成不同的比较好,于是这篇文章提出了针对不同的任务,不同的时刻产生不同的参数矩阵的动态参数生成方法。
这篇论文提出了一种非二叉化、自底向上的转移系统,并且针对它提出了一种Dynamic Oracle,用损失函数的形式来实现它。
这篇论文提出了一种非二叉化、自底向上的转移系统,并且针对它提出了一种Dynamic Oracle,用损失函数的形式来实现它。
本文是发表在EMNLP18上的一篇关于Dynamic Oracle的论文,主要介绍了针对自顶向下和中序两种移进归约成分句法分析模型的Dynamic Oracles。在PTB数据集上,取得了单模型最高的F1值92.0(截至论文发稿时是最高的,张岳TACL18的论文已经取得了92.4的最高F1值)。
本文是发表在EMNLP18上的一篇关于Dynamic Oracle的论文,主要介绍了针对自顶向下和中序两种移进归约成分句法分析模型的Dynamic Oracles。在PTB数据集上,取得了单模型最高的F1值92.0(截至论文发稿时是最高的,张岳TACL18的论文已经取得了92.4的最高F1值)。
本文定义了一种新的树的序列化方法,将树结构预测问题转化为了序列预测问题。该序列用相邻两个结点的公共祖先(CA)数量和最近公共祖先(LCA)的label来表示一棵树,并且证明了这个树到序列的映射是单射但不是满射的,但是提出了一系列方法来解决这个问题。
本文定义了一种新的树的序列化方法,将树结构预测问题转化为了序列预测问题。该序列用相邻两个结点的公共祖先(CA)数量和最近公共祖先(LCA)的label来表示一棵树,并且证明了这个树到序列的映射是单射但不是满射的,但是提出了一系列方法来解决这个问题。
一个更好更快更强的序列标注成分句法分析器
一个更好更快更强的序列标注成分句法分析器
本文主要探究了不同encoder在不同任务上训练得到的句子向量表示,是否蕴含了各种语言性质。
今天要讲的这篇论文发表在ACL18上面,一句话概括,本文就是将句法树序列化,通过预测序列进行句法分析。
今天要讲的这篇论文发表在ACL18上面,一句话概括,本文就是将句法树序列化,通过预测序列进行句法分析。
论文地址:In-Order Transition-based Constituent Parsing 代码地址:github 今天要介绍的这篇论文是成分句法分析领域目前的第三名,结果最高的几篇paper可以参见ruder在github整理的列表:github。下面就是成分句法分析目前排名:
论文地址:In-Order Transition-based Constituent Parsing 代码地址:github 今天要介绍的这篇论文是成分句法分析领域目前的第三名,结果最高的几篇paper可以参见ruder在github整理的列表:github。下面就是成分句法分析目前排名:
论文赏析[NAACL16]RNN文法 论文地址:Recurrent Neural Network Grammars 代码地址:github
论文赏析[NAACL16]RNN文法 论文地址:Recurrent Neural Network Grammars 代码地址:github
好像已经很久没有看论文了呢,开学了一堆事情,以后还是要抽空阅读论文,保持一定的阅读量,并且不能光看最新的论文,还得去前人传统的方法中去寻找有没有能应用于深度学习的东西,说不定就发ACL了呢(手动滑稽)。 论文地址:Linear-Time Constituency Parsing with RNNs and Dynamic Programming 代码地址:github
好像已经很久没有看论文了呢,开学了一堆事情,以后还是要抽空阅读论文,保持一定的阅读量,并且不能光看最新的论文,还得去前人传统的方法中去寻找有没有能应用于深度学习的东西,说不定就发ACL了呢(手动滑稽)。 论文地址:Linear-Time Constituency Parsing with RNNs and Dynamic Programming 代码地址:github
论文赏析[COLING18]两种成分句法分析的局部特征模型
论文地址:Two Local Models for Neural Constituent Parsing 代码地址:github 今天要介绍的论文来自COLING 2018,本文主要探讨了局部特征对成分句法分析到底有多大的影响,并同时提出了两种局部特征模型,在PTB上面取得了92.4的F1值。
论文赏析[EMNLP18]用控制任务来设计并解释探测任务
牛顿级数和生成函数
牛顿级数和生成函数
首先这节课讲的基本都是组合数的相关性质,而且特别多,所以我就不在这里详细证明了,如果你们对某一个性质感兴趣,可以自己证明去。
首先这节课讲的基本都是组合数的相关性质,而且特别多,所以我就不在这里详细证明了,如果你们对某一个性质感兴趣,可以自己证明去。
数论进阶与组合数入门
数论进阶与组合数入门
我们接着上节课讲到的Stern-Brocot树继续往下讲.
我们接着上节课讲到的Stern-Brocot树继续往下讲。
素数阶乘的性质。
素数阶乘的性质。
今天讲完了取整的最后一部分知识,并给第四章数论开了个头。 首先还是以一道例题开始我们今天的课程。
今天讲完了取整的最后一部分知识,并给第四章数论开了个头。 首先还是以一道例题开始我们今天的课程。
今天主要讲了取整与递归式的结合,还有取模的相关知识。
今天主要讲了取整与递归式的结合,还有取模的相关知识。
首先声明一下,最近这段时间忙毕设,没时间更新博客了,大家见谅。 今天这节课开始讲解取整相关知识,主要是数论相关的了。
首先声明一下,最近这段时间忙毕设,没时间更新博客了,大家见谅。 今天这节课开始讲解取整相关知识,主要是数论相关的了。
上节课讲到下降阶乘幂和差分运算,这节课继续讲它和差分的各种性质。
上节课讲到下降阶乘幂和差分运算,这节课继续讲它和差分的各种性质。
今天继续讲求和的方法。
今天继续讲求和的方法。
今天讲了多重求和,也就是一个和式由多个下标来指定。 首先是最简单的形式
今天讲了多重求和,也就是一个和式由多个下标来指定。 首先是最简单的形式
今天讲了一种将递归式转化为求和的方法。
今天讲了一种将递归式转化为求和的方法。
今天主要讲了关于递推式和求和的一些方法,主要是成套方法。
今天主要讲了关于递推式和求和的一些方法,主要是成套方法。
这学期提前选修了研究生的课程:具体数学、人工智能前沿、NLP讨论班,就随便记记具体数学每一节课所学的东西吧。 第一节课讲的都是一些很简单的东西,这里就一带而过了。