import jieba.posseg as psegwords = pseg.cut(text)
result = jieba.tokenize(text)发现对text的分词有些不同,比如“抄的”在前面就是一个词,第二种就是2个词.请问哪里出了问题?
oxiaedzo1#
我也发现这个问题了,没人回复啊
idfiyjo82#
@jiffies , poseg和jieba.cut使用的模型不一样,所以分词的效果有差别。
olmpazwi3#
哪个好呢?
q8l4jmvw4#
如过我想词性标注的同时还标记出他在文中的位置,该怎么办呢
4条答案
按热度按时间oxiaedzo1#
我也发现这个问题了,没人回复啊
idfiyjo82#
@jiffies , poseg和jieba.cut使用的模型不一样,所以分词的效果有差别。
olmpazwi3#
哪个好呢?
q8l4jmvw4#
如过我想词性标注的同时还标记出他在文中的位置,该怎么办呢