NLP 分詞NLPTokenizer運行報錯,其他的正常
print("-"*30+"NLP分詞"+"-"*30) NLPTokenizer?=?JClass('com.hankcs.hanlp.tokenizer.NLPTokenizer') print(NLPTokenizer.segment(testCases))
求解
print("-"*30+"NLP分詞"+"-"*30) NLPTokenizer?=?JClass('com.hankcs.hanlp.tokenizer.NLPTokenizer') print(NLPTokenizer.segment(testCases))
求解
舉報
2019-07-26
你可以借助jiagu或者jieba分詞,性能都差不多。