分类:: Papers

0

Adjusting Word Embeddings with Semantic Intensity Orders

clustering words for intensity ordering首先需要从Google N-gram中抽取形容词的程度顺序信息。使用的方法是基于模版匹配的方法。比如从good but not great我们可以总结出一个规则xx but not xx,然后可以发现后者比前者的程度深。然后使用mixed integer linear programming (MILP)来进行最优化排序

0

AutoExtend Extending Word Embeddings to Embeddings for Synsets and Lexemes

Introduction这篇文章提出了一个叫做AutoExtand的方法,来运用其他的信息来增强word embedding的性能。用于学习用来表示synsets和lexemes。用于一些公开的知识库上,比如WordNet, Wikipedia和Freebase。 synset是指一个词语集合,这里面的词可以在一定的条件下相互替换。lexeme会将一个特定的拼写和发音和一个特定的意思匹配在一起。也

0

Mimicking Word Embeddings using Subword RNNs

这篇文章挺有意思的,在已有的word embeddings上学习一个从字符级别的序列上建立一个word embedding。模型使用的是RNN,双向的,输入是一个单词,输出就是一个向量。训练的时候输入都是已有word embedding中lexicon的单词,输入的ground truth是原始的向量。 这么做的目的是希望能够解决UNK(未登录词)的表示,它的理论假设是从字母组成语义是要遵循一系列

0

Dynamic Routing Between Capsules

IntroductionThis paper is going to show that a discrimininatively trained, multi-layer capsule system achieves state-of-the-art performance on MNIST and isconsiderably better than a convolutional net