自然语言工具包
(nltk.org)满足你的需求。 该群组发布表明这样做:
import nltk.datatokenizer = nltk.data.load('tokenizers/punkt/english.pickle')fp = open("test.txt")data = fp.read()print 'n-----n'.join(tokenizer.tokenize(data))(我还没有尝试过!)

自然语言工具包
(nltk.org)满足你的需求。 该群组发布表明这样做:
import nltk.datatokenizer = nltk.data.load('tokenizers/punkt/english.pickle')fp = open("test.txt")data = fp.read()print 'n-----n'.join(tokenizer.tokenize(data))(我还没有尝试过!)