- Question generation: automatically creating questions that can be answered by a certain span of text witin a given passage.
- Recent sequence to sequence neural models have outperformed previous rule-based systems.
- 现有方法都是基于 1~2 个句子去生成问题,在长文本上效果较差
- 在实际问题中,经常需要整个段落中的信息才能生成高质量的问题
- 本文提出 maxout pointer mechanism with gated self-attention encoder 来解决问题生成中的长文本处理难题。
- 创造 BELU_4 上的新 SOTA(16.3)
本文主要面向答案已知的 QG 问题。
输入:
- 段落
- 答案(段落中的 span )
输出:
- 问题
上述设定实际与 SQuAD 的设定完全一致。有研究指出,SQuAD 中有大概 20% 的问题是基于段落级别的信息提问的,在这种情况下使用整个段落的信息可以提高 QG 的表现。
然而,段落中可能包含一些和答案无关的信息。
因此,段落级别 QG 的一个挑战就是如何有



