为什么相同的LDA参数和语料库每次都会生成不同的主题?
因为LDA在训练和推理步骤中都使用了随机性。
我如何稳定话题的产生?
通过在
numpy.random每次训练模型或进行推理时将种子重置为相同的值,使用
numpy.random.seed:
SOME_FIXED_SEED = 42# before training/inference:np.random.seed(SOME_FIXED_SEED)
(这很丑陋,这使得Gensim的结果难以再现;请考虑提交补丁。我已经打开了一个问题。)

为什么相同的LDA参数和语料库每次都会生成不同的主题?
因为LDA在训练和推理步骤中都使用了随机性。
我如何稳定话题的产生?
通过在
numpy.random每次训练模型或进行推理时将种子重置为相同的值,使用
numpy.random.seed:
SOME_FIXED_SEED = 42# before training/inference:np.random.seed(SOME_FIXED_SEED)
(这很丑陋,这使得Gensim的结果难以再现;请考虑提交补丁。我已经打开了一个问题。)