标签:: Paper

0

Extending Neural Generative Conversational Model using External Knowledge Sources

文章总结的两点还挺有意思的 用基于连接的方法来做对话是因为有大规模的语料 之前几年的对话系统研究都集中在把所有的组件都替换一遍。 工作中用了 wikipedia summaries NELL knowledge base related work中列觉了很多利用外部知识的对话系统的工作 这个工作中把context中的非停用词的相关knowledge都抽取出来,然后用Bag-of-words

0

Inductive Representation Learning on Large Graphs

这是一篇发表在NIPS2017上的工作,提出了一个模型叫做GraphSAGE,用来解决图表示的。提出了一个问题However, most existing approaches require that all nodes in the graph are present during training of the embeddings;作者把这些模型叫做transductive的,而他提出来的

0

Pointer Networks CopyNet and Pointer Generator

Papers以下三篇论文都是通过copy机制,想要能够在生成阶段生成输入中的词语,这样就可以组合出更多的句式。我们想看看这个方法能否应用到对话生成中去。第一篇论文是后两篇的基础。 Pointer Networks Incorporating Copying Mechanism in Sequence-to-Sequence Learning Get To The Point: Summariza

0

Toward Controlled Generation of Text

这篇paper是被Goldberg顺带怼过的一篇文章,也算是走红了。已有的文本生成工作具有不可控的属性,比如我不知道我下一句话生成的会是一个什么情感的句子。或者是什么时态的句子,这是机器人必须突破的限制。我的前端语义理解系统理解出来了用户可能需要一个positive的回复,但是我如何给呢? 这篇文章的主要思路是用类似GAN的方式,互相促进,同时把这个学习信号嵌入到Generator的一个位上。 C

0

AutoExtend Extending Word Embeddings to Embeddings for Synsets and Lexemes

Introduction这篇文章提出了一个叫做AutoExtand的方法,来运用其他的信息来增强word embedding的性能。用于学习用来表示synsets和lexemes。用于一些公开的知识库上,比如WordNet, Wikipedia和Freebase。 synset是指一个词语集合,这里面的词可以在一定的条件下相互替换。lexeme会将一个特定的拼写和发音和一个特定的意思匹配在一起。也