# 示例代码:使用 jieba 分词库进行中文分词
import jieba
# 定义一个待分词的句子
sentence = "我喜欢用Python进行自然语言处理"
# 使用 jieba 进行分词
seg_list = jieba.lcut(sentence)
# 输出分词结果
print("分词结果:", seg_list)
jieba
是一个常用的中文分词库,支持多种分词模式。sentence
。lcut
方法进行分词:jieba.lcut()
方法会返回一个列表,其中每个元素是分词后的词语。print
函数输出分词后的结果。如果你没有安装 jieba
,可以通过以下命令安装:
pip install jieba
上一篇:python的random用法
下一篇:python文件运行
Laravel PHP 深圳智简公司。版权所有©2023-2043 LaravelPHP 粤ICP备2021048745号-3
Laravel 中文站