前端技术
HTML
CSS
Javascript
前端框架和UI库
VUE
ReactJS
AngularJS
JQuery
NodeJS
JSON
Element-UI
Bootstrap
Material UI
服务端和客户端
Java
Python
PHP
Golang
Scala
Kotlin
Groovy
Ruby
Lua
.net
c#
c++
后端WEB和工程框架
SpringBoot
SpringCloud
Struts2
MyBatis
Hibernate
Tornado
Beego
Go-Spring
Go Gin
Go Iris
Dubbo
HessianRPC
Maven
Gradle
数据库
MySQL
Oracle
Mongo
中间件与web容器
Redis
MemCache
Etcd
Cassandra
Kafka
RabbitMQ
RocketMQ
ActiveMQ
Nacos
Consul
Tomcat
Nginx
Netty
大数据技术
Hive
Impala
ClickHouse
DorisDB
Greenplum
PostgreSQL
HBase
Kylin
Hadoop
Apache Pig
ZooKeeper
SeaTunnel
Sqoop
Datax
Flink
Spark
Mahout
数据搜索与日志
ElasticSearch
Apache Lucene
Apache Solr
Kibana
Logstash
数据可视化与OLAP
Apache Atlas
Superset
Saiku
Tesseract
系统与容器
Linux
Shell
Docker
Kubernetes
[syspath在模块查找中的作用]的搜索结果
这里是文章列表。热门标签的颜色随机变换,标签颜色没有特殊含义。
点击某个标签可搜索标签相关的文章。
点击某个标签可搜索标签相关的文章。
转载文章
...G) 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合 对于未登录词,采用了基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法 主要功能 分词 jieba.cut 方法接受四个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用 HMM 模型;use_paddle 参数用来控制是否使用paddle模式下的分词模式,paddle模式采用延迟加载方式,通过enable_paddle接口安装paddlepaddle-tiny,并且import相关代码; jieba.cut_for_search 方法接受两个参数:需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细 待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8 jieba.cut 以及 jieba.cut_for_search 返回的结构都是一个可迭代的 generator,可以使用 for 循环来获得分词后得到的每一个词语(unicode),或者用 jieba.lcut 以及 jieba.lcut_for_search 直接返回 list jieba.Tokenizer(dictionary=DEFAULT_DICT) 新建自定义分词器,可用于同时使用不同词典。jieba.dt 为默认分词器,所有全局分词相关函数都是该分词器的映射。 代码示例 encoding=utf-8import jiebajieba.enable_paddle() 启动paddle模式。 0.40版之后开始支持,早期版本不支持strs=["我来到北京清华大学","乒乓球拍卖完了","中国科学技术大学"]for str in strs:seg_list = jieba.cut(str,use_paddle=True) 使用paddle模式print("Paddle Mode: " + '/'.join(list(seg_list)))seg_list = jieba.cut("我来到北京清华大学", cut_all=True)print("Full Mode: " + "/ ".join(seg_list)) 全模式seg_list = jieba.cut("我来到北京清华大学", cut_all=False)print("Default Mode: " + "/ ".join(seg_list)) 精确模式seg_list = jieba.cut("他来到了网易杭研大厦") 默认是精确模式print(", ".join(seg_list))seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") 搜索引擎模式print(", ".join(seg_list)) 输出: 【全模式】: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学【精确模式】: 我/ 来到/ 北京/ 清华大学【新词识别】:他, 来到, 了, 网易, 杭研, 大厦 (此处,“杭研”并没有在词典中,但是也被Viterbi算法识别出来了)【搜索引擎模式】: 小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造 添加自定义词典 载入词典 开发者可以指定自己自定义的词典,以便包含 jieba 词库里没有的词。虽然 jieba 有新词识别能力,但是自行添加新词可以保证更高的正确率 用法: jieba.load_userdict(file_name) file_name 为文件类对象或自定义词典的路径 词典格式和 dict.txt 一样,一个词占一行;每一行分三部分:词语、词频(可省略)、词性(可省略),用空格隔开,顺序不可颠倒。file_name 若为路径或二进制方式打开的文件,则文件必须为 UTF-8 编码。 词频省略时使用自动计算的能保证分出该词的词频。 例如: 创新办 3 i云计算 5凱特琳 nz台中 更改分词器(默认为 jieba.dt)的 tmp_dir 和 cache_file 属性,可分别指定缓存文件所在的文件夹及其文件名,用于受限的文件系统。 范例: 自定义词典:https://github.com/fxsjy/jieba/blob/master/test/userdict.txt 用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_userdict.py 之前: 李小福 / 是 / 创新 / 办 / 主任 / 也 / 是 / 云 / 计算 / 方面 / 的 / 专家 / 加载自定义词库后: 李小福 / 是 / 创新办 / 主任 / 也 / 是 / 云计算 / 方面 / 的 / 专家 / 调整词典 使用 add_word(word, freq=None, tag=None) 和 del_word(word) 可在程序中动态修改词典。 使用 suggest_freq(segment, tune=True) 可调节单个词语的词频,使其能(或不能)被分出来。 注意:自动计算的词频在使用 HMM 新词发现功能时可能无效。 代码示例: >>> print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))如果/放到/post/中将/出错/。>>> jieba.suggest_freq(('中', '将'), True)494>>> print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))如果/放到/post/中/将/出错/。>>> print('/'.join(jieba.cut('「台中」正确应该不会被切开', HMM=False)))「/台/中/」/正确/应该/不会/被/切开>>> jieba.suggest_freq('台中', True)69>>> print('/'.join(jieba.cut('「台中」正确应该不会被切开', HMM=False)))「/台中/」/正确/应该/不会/被/切开 “通过用户自定义词典来增强歧义纠错能力” — https://github.com/fxsjy/jieba/issues/14 关键词提取 基于 TF-IDF 算法的关键词抽取 import jieba.analyse jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=()) sentence 为待提取的文本 topK 为返回几个 TF/IDF 权重最大的关键词,默认值为 20 withWeight 为是否一并返回关键词权重值,默认值为 False allowPOS 仅包括指定词性的词,默认值为空,即不筛选 jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 实例,idf_path 为 IDF 频率文件 代码示例 (关键词提取) https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py 关键词提取所使用逆向文件频率(IDF)文本语料库可以切换成自定义语料库的路径 用法: jieba.analyse.set_idf_path(file_name) file_name为自定义语料库的路径 自定义语料库示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big 用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_idfpath.py 关键词提取所使用停止词(Stop Words)文本语料库可以切换成自定义语料库的路径 用法: jieba.analyse.set_stop_words(file_name) file_name为自定义语料库的路径 自定义语料库示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/stop_words.txt 用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_stop_words.py 关键词一并返回关键词权重值示例 用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_with_weight.py 基于 TextRank 算法的关键词抽取 jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=(‘ns’, ‘n’, ‘vn’, ‘v’)) 直接使用,接口相同,注意默认过滤词性。 jieba.analyse.TextRank() 新建自定义 TextRank 实例 算法论文: TextRank: Bringing Order into Texts 基本思想: 将待抽取关键词的文本进行分词 以固定窗口大小(默认为5,通过span属性调整),词之间的共现关系,构建图 计算图中节点的PageRank,注意是无向带权图 使用示例: 见 test/demo.py 词性标注 jieba.posseg.POSTokenizer(tokenizer=None) 新建自定义分词器,tokenizer 参数可指定内部使用的 jieba.Tokenizer 分词器。jieba.posseg.dt 为默认词性标注分词器。 标注句子分词后每个词的词性,采用和 ictclas 兼容的标记法。 除了jieba默认分词模式,提供paddle模式下的词性标注功能。paddle模式采用延迟加载方式,通过enable_paddle()安装paddlepaddle-tiny,并且import相关代码; 用法示例 >>> import jieba>>> import jieba.posseg as pseg>>> words = pseg.cut("我爱北京天安门") jieba默认模式>>> jieba.enable_paddle() 启动paddle模式。 0.40版之后开始支持,早期版本不支持>>> words = pseg.cut("我爱北京天安门",use_paddle=True) paddle模式>>> for word, flag in words:... print('%s %s' % (word, flag))...我 r爱 v北京 ns天安门 ns paddle模式词性标注对应表如下: paddle模式词性和专名类别标签集合如下表,其中词性标签 24 个(小写字母),专名类别标签 4 个(大写字母)。 标签 含义 标签 含义 标签 含义 标签 含义 n 普通名词 f 方位名词 s 处所名词 t 时间 nr 人名 ns 地名 nt 机构名 nw 作品名 nz 其他专名 v 普通动词 vd 动副词 vn 名动词 a 形容词 ad 副形词 an 名形词 d 副词 m 数量词 q 量词 r 代词 p 介词 c 连词 u 助词 xc 其他虚词 w 标点符号 PER 人名 LOC 地名 ORG 机构名 TIME 时间 并行分词 原理:将目标文本按行分隔后,把各行文本分配到多个 Python 进程并行分词,然后归并结果,从而获得分词速度的可观提升 基于 python 自带的 multiprocessing 模块,目前暂不支持 Windows 用法: jieba.enable_parallel(4) 开启并行分词模式,参数为并行进程数 jieba.disable_parallel() 关闭并行分词模式 例子:https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py 实验结果:在 4 核 3.4GHz Linux 机器上,对金庸全集进行精确分词,获得了 1MB/s 的速度,是单进程版的 3.3 倍。 注意:并行分词仅支持默认分词器 jieba.dt 和 jieba.posseg.dt。 Tokenize:返回词语在原文的起止位置 注意,输入参数只接受 unicode 默认模式 result = jieba.tokenize(u'永和服装饰品有限公司')for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2word 服装 start: 2 end:4word 饰品 start: 4 end:6word 有限公司 start: 6 end:10 搜索模式 result = jieba.tokenize(u'永和服装饰品有限公司', mode='search')for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2word 服装 start: 2 end:4word 饰品 start: 4 end:6word 有限 start: 6 end:8word 公司 start: 8 end:10word 有限公司 start: 6 end:10 ChineseAnalyzer for Whoosh 搜索引擎 引用: from jieba.analyse import ChineseAnalyzer 用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_whoosh.py 命令行分词 使用示例:python -m jieba news.txt > cut_result.txt 命令行选项(翻译): 使用: python -m jieba [options] filename结巴命令行界面。固定参数:filename 输入文件可选参数:-h, --help 显示此帮助信息并退出-d [DELIM], --delimiter [DELIM]使用 DELIM 分隔词语,而不是用默认的' / '。若不指定 DELIM,则使用一个空格分隔。-p [DELIM], --pos [DELIM]启用词性标注;如果指定 DELIM,词语和词性之间用它分隔,否则用 _ 分隔-D DICT, --dict DICT 使用 DICT 代替默认词典-u USER_DICT, --user-dict USER_DICT使用 USER_DICT 作为附加词典,与默认词典或自定义词典配合使用-a, --cut-all 全模式分词(不支持词性标注)-n, --no-hmm 不使用隐含马尔可夫模型-q, --quiet 不输出载入信息到 STDERR-V, --version 显示版本信息并退出如果没有指定文件名,则使用标准输入。 --help 选项输出: $> python -m jieba --helpJieba command line interface.positional arguments:filename input fileoptional arguments:-h, --help show this help message and exit-d [DELIM], --delimiter [DELIM]use DELIM instead of ' / ' for word delimiter; or aspace if it is used without DELIM-p [DELIM], --pos [DELIM]enable POS tagging; if DELIM is specified, use DELIMinstead of '_' for POS delimiter-D DICT, --dict DICT use DICT as dictionary-u USER_DICT, --user-dict USER_DICTuse USER_DICT together with the default dictionary orDICT (if specified)-a, --cut-all full pattern cutting (ignored with POS tagging)-n, --no-hmm don't use the Hidden Markov Model-q, --quiet don't print loading messages to stderr-V, --version show program's version number and exitIf no filename specified, use STDIN instead. 延迟加载机制 jieba 采用延迟加载,import jieba 和 jieba.Tokenizer() 不会立即触发词典的加载,一旦有必要才开始加载词典构建前缀字典。如果你想手工初始 jieba,也可以手动初始化。 import jiebajieba.initialize() 手动初始化(可选) 在 0.28 之前的版本是不能指定主词典的路径的,有了延迟加载机制后,你可以改变主词典的路径: jieba.set_dictionary('data/dict.txt.big') 例子: https://github.com/fxsjy/jieba/blob/master/test/test_change_dictpath.py 其他词典 占用内存较小的词典文件 https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.small 支持繁体分词更好的词典文件 https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.big 下载你所需要的词典,然后覆盖 jieba/dict.txt 即可;或者用 jieba.set_dictionary('data/dict.txt.big') 其他语言实现 结巴分词 Java 版本 作者:piaolingxue 地址:https://github.com/huaban/jieba-analysis 结巴分词 C++ 版本 作者:yanyiwu 地址:https://github.com/yanyiwu/cppjieba 结巴分词 Rust 版本 作者:messense, MnO2 地址:https://github.com/messense/jieba-rs 结巴分词 Node.js 版本 作者:yanyiwu 地址:https://github.com/yanyiwu/nodejieba 结巴分词 Erlang 版本 作者:falood 地址:https://github.com/falood/exjieba 结巴分词 R 版本 作者:qinwf 地址:https://github.com/qinwf/jiebaR 结巴分词 iOS 版本 作者:yanyiwu 地址:https://github.com/yanyiwu/iosjieba 结巴分词 PHP 版本 作者:fukuball 地址:https://github.com/fukuball/jieba-php 结巴分词 .NET(C) 版本 作者:anderscui 地址:https://github.com/anderscui/jieba.NET/ 结巴分词 Go 版本 作者: wangbin 地址: https://github.com/wangbin/jiebago 作者: yanyiwu 地址: https://github.com/yanyiwu/gojieba 结巴分词Android版本 作者 Dongliang.W 地址:https://github.com/452896915/jieba-android 友情链接 https://github.com/baidu/lac 百度中文词法分析(分词+词性+专名)系统 https://github.com/baidu/AnyQ 百度FAQ自动问答系统 https://github.com/baidu/Senta 百度情感识别系统 系统集成 Solr: https://github.com/sing1ee/jieba-solr 分词速度 1.5 MB / Second in Full Mode 400 KB / Second in Default Mode 测试环境: Intel® Core™ i7-2600 CPU @ 3.4GHz;《围城》.txt 常见问题 1. 模型的数据是如何生成的? 详见: https://github.com/fxsjy/jieba/issues/7 2. “台中”总是被切成“台 中”?(以及类似情况) P(台中) < P(台)×P(中),“台中”词频不够导致其成词概率较低 解决方法:强制调高词频 jieba.add_word('台中') 或者 jieba.suggest_freq('台中', True) 3. “今天天气 不错”应该被切成“今天 天气 不错”?(以及类似情况) 解决方法:强制调低词频 jieba.suggest_freq(('今天', '天气'), True) 或者直接删除该词 jieba.del_word('今天天气') 4. 切出了词典中没有的词语,效果不理想? 解决方法:关闭新词发现 jieba.cut('丰田太省了', HMM=False) jieba.cut('我们中出了一个叛徒', HMM=False) 更多问题请点击:https://github.com/fxsjy/jieba/issues?sort=updated&state=closed 修订历史 https://github.com/fxsjy/jieba/blob/master/Changelog jieba “Jieba” (Chinese for “to stutter”) Chinese text segmentation: built to be the best Python Chinese word segmentation module. Features Support three types of segmentation mode: Accurate Mode attempts to cut the sentence into the most accurate segmentations, which is suitable for text analysis. Full Mode gets all the possible words from the sentence. Fast but not accurate. Search Engine Mode, based on the Accurate Mode, attempts to cut long words into several short words, which can raise the recall rate. Suitable for search engines. Supports Traditional Chinese Supports customized dictionaries MIT License Online demo http://jiebademo.ap01.aws.af.cm/ (Powered by Appfog) Usage Fully automatic installation: easy_install jieba or pip install jieba Semi-automatic installation: Download http://pypi.python.org/pypi/jieba/ , run python setup.py install after extracting. Manual installation: place the jieba directory in the current directory or python site-packages directory. import jieba. Algorithm Based on a prefix dictionary structure to achieve efficient word graph scanning. Build a directed acyclic graph (DAG) for all possible word combinations. Use dynamic programming to find the most probable combination based on the word frequency. For unknown words, a HMM-based model is used with the Viterbi algorithm. Main Functions Cut The jieba.cut function accepts three input parameters: the first parameter is the string to be cut; the second parameter is cut_all, controlling the cut mode; the third parameter is to control whether to use the Hidden Markov Model. jieba.cut_for_search accepts two parameter: the string to be cut; whether to use the Hidden Markov Model. This will cut the sentence into short words suitable for search engines. The input string can be an unicode/str object, or a str/bytes object which is encoded in UTF-8 or GBK. Note that using GBK encoding is not recommended because it may be unexpectly decoded as UTF-8. jieba.cut and jieba.cut_for_search returns an generator, from which you can use a for loop to get the segmentation result (in unicode). jieba.lcut and jieba.lcut_for_search returns a list. jieba.Tokenizer(dictionary=DEFAULT_DICT) creates a new customized Tokenizer, which enables you to use different dictionaries at the same time. jieba.dt is the default Tokenizer, to which almost all global functions are mapped. Code example: segmentation encoding=utf-8import jiebaseg_list = jieba.cut("我来到北京清华大学", cut_all=True)print("Full Mode: " + "/ ".join(seg_list)) 全模式seg_list = jieba.cut("我来到北京清华大学", cut_all=False)print("Default Mode: " + "/ ".join(seg_list)) 默认模式seg_list = jieba.cut("他来到了网易杭研大厦")print(", ".join(seg_list))seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") 搜索引擎模式print(", ".join(seg_list)) Output: [Full Mode]: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学[Accurate Mode]: 我/ 来到/ 北京/ 清华大学[Unknown Words Recognize] 他, 来到, 了, 网易, 杭研, 大厦 (In this case, "杭研" is not in the dictionary, but is identified by the Viterbi algorithm)[Search Engine Mode]: 小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造 Add a custom dictionary Load dictionary Developers can specify their own custom dictionary to be included in the jieba default dictionary. Jieba is able to identify new words, but you can add your own new words can ensure a higher accuracy. Usage: jieba.load_userdict(file_name) file_name is a file-like object or the path of the custom dictionary The dictionary format is the same as that of dict.txt: one word per line; each line is divided into three parts separated by a space: word, word frequency, POS tag. If file_name is a path or a file opened in binary mode, the dictionary must be UTF-8 encoded. The word frequency and POS tag can be omitted respectively. The word frequency will be filled with a suitable value if omitted. For example: 创新办 3 i云计算 5凱特琳 nz台中 Change a Tokenizer’s tmp_dir and cache_file to specify the path of the cache file, for using on a restricted file system. Example: 云计算 5李小福 2创新办 3[Before]: 李小福 / 是 / 创新 / 办 / 主任 / 也 / 是 / 云 / 计算 / 方面 / 的 / 专家 /[After]: 李小福 / 是 / 创新办 / 主任 / 也 / 是 / 云计算 / 方面 / 的 / 专家 / Modify dictionary Use add_word(word, freq=None, tag=None) and del_word(word) to modify the dictionary dynamically in programs. Use suggest_freq(segment, tune=True) to adjust the frequency of a single word so that it can (or cannot) be segmented. Note that HMM may affect the final result. Example: >>> print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))如果/放到/post/中将/出错/。>>> jieba.suggest_freq(('中', '将'), True)494>>> print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))如果/放到/post/中/将/出错/。>>> print('/'.join(jieba.cut('「台中」正确应该不会被切开', HMM=False)))「/台/中/」/正确/应该/不会/被/切开>>> jieba.suggest_freq('台中', True)69>>> print('/'.join(jieba.cut('「台中」正确应该不会被切开', HMM=False)))「/台中/」/正确/应该/不会/被/切开 Keyword Extraction import jieba.analyse jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=()) sentence: the text to be extracted topK: return how many keywords with the highest TF/IDF weights. The default value is 20 withWeight: whether return TF/IDF weights with the keywords. The default value is False allowPOS: filter words with which POSs are included. Empty for no filtering. jieba.analyse.TFIDF(idf_path=None) creates a new TFIDF instance, idf_path specifies IDF file path. Example (keyword extraction) https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py Developers can specify their own custom IDF corpus in jieba keyword extraction Usage: jieba.analyse.set_idf_path(file_name) file_name is the path for the custom corpus Custom Corpus Sample:https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big Sample Code:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_idfpath.py Developers can specify their own custom stop words corpus in jieba keyword extraction Usage: jieba.analyse.set_stop_words(file_name) file_name is the path for the custom corpus Custom Corpus Sample:https://github.com/fxsjy/jieba/blob/master/extra_dict/stop_words.txt Sample Code:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_stop_words.py There’s also a TextRank implementation available. Use: jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v')) Note that it filters POS by default. jieba.analyse.TextRank() creates a new TextRank instance. Part of Speech Tagging jieba.posseg.POSTokenizer(tokenizer=None) creates a new customized Tokenizer. tokenizer specifies the jieba.Tokenizer to internally use. jieba.posseg.dt is the default POSTokenizer. Tags the POS of each word after segmentation, using labels compatible with ictclas. Example: >>> import jieba.posseg as pseg>>> words = pseg.cut("我爱北京天安门")>>> for w in words:... print('%s %s' % (w.word, w.flag))...我 r爱 v北京 ns天安门 ns Parallel Processing Principle: Split target text by line, assign the lines into multiple Python processes, and then merge the results, which is considerably faster. Based on the multiprocessing module of Python. Usage: jieba.enable_parallel(4) Enable parallel processing. The parameter is the number of processes. jieba.disable_parallel() Disable parallel processing. Example: https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py Result: On a four-core 3.4GHz Linux machine, do accurate word segmentation on Complete Works of Jin Yong, and the speed reaches 1MB/s, which is 3.3 times faster than the single-process version. Note that parallel processing supports only default tokenizers, jieba.dt and jieba.posseg.dt. Tokenize: return words with position The input must be unicode Default mode result = jieba.tokenize(u'永和服装饰品有限公司')for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2word 服装 start: 2 end:4word 饰品 start: 4 end:6word 有限公司 start: 6 end:10 Search mode result = jieba.tokenize(u'永和服装饰品有限公司',mode='search')for tk in result:print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2])) word 永和 start: 0 end:2word 服装 start: 2 end:4word 饰品 start: 4 end:6word 有限 start: 6 end:8word 公司 start: 8 end:10word 有限公司 start: 6 end:10 ChineseAnalyzer for Whoosh from jieba.analyse import ChineseAnalyzer Example: https://github.com/fxsjy/jieba/blob/master/test/test_whoosh.py Command Line Interface $> python -m jieba --helpJieba command line interface.positional arguments:filename input fileoptional arguments:-h, --help show this help message and exit-d [DELIM], --delimiter [DELIM]use DELIM instead of ' / ' for word delimiter; or aspace if it is used without DELIM-p [DELIM], --pos [DELIM]enable POS tagging; if DELIM is specified, use DELIMinstead of '_' for POS delimiter-D DICT, --dict DICT use DICT as dictionary-u USER_DICT, --user-dict USER_DICTuse USER_DICT together with the default dictionary orDICT (if specified)-a, --cut-all full pattern cutting (ignored with POS tagging)-n, --no-hmm don't use the Hidden Markov Model-q, --quiet don't print loading messages to stderr-V, --version show program's version number and exitIf no filename specified, use STDIN instead. Initialization By default, Jieba don’t build the prefix dictionary unless it’s necessary. This takes 1-3 seconds, after which it is not initialized again. If you want to initialize Jieba manually, you can call: import jiebajieba.initialize() (optional) You can also specify the dictionary (not supported before version 0.28) : jieba.set_dictionary('data/dict.txt.big') Using Other Dictionaries It is possible to use your own dictionary with Jieba, and there are also two dictionaries ready for download: A smaller dictionary for a smaller memory footprint: https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.small There is also a bigger dictionary that has better support for traditional Chinese (繁體): https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.big By default, an in-between dictionary is used, called dict.txt and included in the distribution. In either case, download the file you want, and then call jieba.set_dictionary('data/dict.txt.big') or just replace the existing dict.txt. Segmentation speed 1.5 MB / Second in Full Mode 400 KB / Second in Default Mode Test Env: Intel® Core™ i7-2600 CPU @ 3.4GHz;《围城》.txt 本篇文章为转载内容。原文链接:https://blog.csdn.net/yegeli/article/details/107246661。 该文由互联网用户投稿提供,文中观点代表作者本人意见,并不代表本站的立场。 作为信息平台,本站仅提供文章转载服务,并不拥有其所有权,也不对文章内容的真实性、准确性和合法性承担责任。 如发现本文存在侵权、违法、违规或事实不符的情况,请及时联系我们,我们将第一时间进行核实并删除相应内容。
2023-12-02 10:38:37
500
转载
建站模板下载
...整合了丰富的产销功能模块,便于用户快速查找和展示房源信息,助力企业提升品牌形象与线上服务效率,是现代房地产行业理想的数字化解决方案。 点我下载 文件大小:2.83 MB 您将下载一个资源包,该资源包内部文件的目录结构如下: 本网站提供模板下载功能,旨在帮助广大用户在工作学习中提升效率、节约时间。 本网站的下载内容来自于互联网。如您发现任何侵犯您权益的内容,请立即告知我们,我们将迅速响应并删除相关内容。 免责声明:站内所有资源仅供个人学习研究及参考之用,严禁将这些资源应用于商业场景。 若擅自商用导致的一切后果,由使用者承担责任。
2023-06-21 10:43:13
60
本站
JQuery插件下载
...,这极大地方便了信息查找过程。Fuzzysearch插件通过智能算法,能够根据用户输入的部分字符串,快速搜索并匹配出相关结果,同时提供自动完成选项,帮助用户迅速找到所需信息。该插件广泛适用于各类数据检索场景,无论是产品目录、用户查询、文本编辑器中的代码补全,还是其他需要快速定位与匹配的场景,Fuzzysearch都能发挥重要作用。其核心优势在于:1.快速响应:插件采用优化的搜索算法,能够实时响应用户的输入,提供几乎即时的搜索结果与建议,显著提升了操作效率。2.精准匹配:通过模糊匹配技术,即使用户输入有误或不完整,也能准确地识别并推荐相关选项,减少错误输入带来的困扰。3.用户体验优化:自动完成功能减少了用户手动输入的工作量,提高了数据输入的准确性和速度,使交互过程更加流畅自然。4.灵活性与可定制性:Fuzzysearch提供了丰富的配置选项,允许开发者根据具体需求调整插件行为,如搜索范围、匹配模式等,以适应不同应用场景。总之,Fuzzysearch是一个强大而灵活的工具,旨在简化搜索流程,提升用户在各种场景下的工作效率与满意度。无论是网页应用、移动应用还是桌面软件,引入Fuzzysearch都能显著增强其功能性和用户体验。 点我下载 文件大小:105.23 KB 您将下载一个JQuery插件资源包,该资源包内部文件的目录结构如下: 本网站提供JQuery插件下载功能,旨在帮助广大用户在工作学习中提升效率、节约时间。 本网站的下载内容来自于互联网。如您发现任何侵犯您权益的内容,请立即告知我们,我们将迅速响应并删除相关内容。 免责声明:站内所有资源仅供个人学习研究及参考之用,严禁将这些资源应用于商业场景。 若擅自商用导致的一切后果,由使用者承担责任。
2024-10-05 20:49:50
104
本站
Python
...入 - 加载所需要的模块 - 库件 import time from selenium import webdriver from selenium.webdriver.common.keys import Keys 创建一个浏览器对象 driver = webdriver.Chrome() 打开需要模仿 - 模拟点击的站点 - 网页 driver.get('https://www.baidu.com') 在查找 - 寻找框中录入 - 输入Python并点击查找 - 寻找按键 - 按钮 elem = driver.find_element_by_name('wd') elem.send_keys('Python') elem.send_keys(Keys.RETURN) 停顿2秒暂停 - 停滞查找 - 寻找结果加载完毕 - 结束 time.sleep(2) 点击第一个查找 - 寻找结果的链接 link = driver.find_element_by_css_selector('content_left .result:nth-child(1) a') link.click() 关闭浏览器 driver.quit() 上面的代码通过使用Selenium模块 - 库件和Chrome浏览器来模仿 - 模拟人 - 实体的点击行为,实现了在百度查找 - 寻找Python后点击第一个查找 - 寻找结果的链接的功能。在实际应用中,这种模仿 - 模拟点击的方式可以用于各种自动化 - 自动化的操作,比如通过点击来实现站点 - 网页的自动登录,自动发送邮件等等。
2024-05-01 16:24:58
245
编程狂人
JQuery插件下载
...适用于需要频繁筛选、查找特定信息的场景。功能亮点1.快速搜索:通过简单的API调用,用户可以在输入框中直接输入关键词,快速筛选出符合条件的数据行。这不仅节省了时间,还提高了数据查找的精确度。2.灵活的过滤选项:jQuery-easySearch支持多种过滤条件,包括但不限于文本匹配、数值比较、日期筛选等,允许开发者根据具体需求定制过滤逻辑,满足不同场景下的应用需求。3.直观的用户界面:插件提供了简洁明了的用户界面,使得即使非技术背景的用户也能轻松上手使用,无需深入理解复杂的前端开发知识。4.高性能表现:针对大数据量场景进行了优化,确保在处理大规模数据时也能保持流畅的操作体验,不会出现明显的卡顿或延迟。5.兼容性与可扩展性:jQuery-easySearch与其他jQuery库兼容,易于集成到现有的Web项目中。同时,其模块化设计方便开发者根据需要添加自定义功能或修改现有行为。6.文档与社区支持:提供详细的API文档和丰富的示例代码,帮助开发者快速理解并应用插件。活跃的开发者社区也能够提供技术支持和交流平台,促进插件的持续改进和更新。应用场景-电商网站产品搜索:用户可以通过关键词搜索找到特定的产品,提高购物体验。-数据报告与分析:在数据分析工具中,快速筛选出关键指标或趋势,辅助决策制定。-人力资源管理:在员工信息管理系统中,快速定位特定员工或职位信息,提高管理效率。总之,jQuery-easySearch为开发者提供了一个高效、灵活的工具,以提升列表和表格数据的搜索和过滤功能,显著改善用户体验,适用于各种需要高效数据处理的Web应用。 点我下载 文件大小:91.70 KB 您将下载一个JQuery插件资源包,该资源包内部文件的目录结构如下: 本网站提供JQuery插件下载功能,旨在帮助广大用户在工作学习中提升效率、节约时间。 本网站的下载内容来自于互联网。如您发现任何侵犯您权益的内容,请立即告知我们,我们将迅速响应并删除相关内容。 免责声明:站内所有资源仅供个人学习研究及参考之用,严禁将这些资源应用于商业场景。 若擅自商用导致的一切后果,由使用者承担责任。
2024-08-24 21:15:00
67
本站
Python
...工单。 导入相关模块 import random 定义签收状态列表 status_list = ['已签收', '未签收'] 模拟签收工单函数 def simulate_receipt(num_of_orders): for i in range(num_of_orders): 生成工单号 order_num = random.randint(1000000, 9999999) 随机生成签收状态 status = random.choice(status_list) 输出结果 print(f'工单号:{order_num},签收状态:{status}') 调用函数进行模拟 simulate_receipt(10) 以上代码中,我们使用了Python中的random模块生成随机的工单号和签收状态,最后调用函数进行模拟。 在实际应用中,我们可以根据数据库中的工单信息进行模拟签收,以便测试签收流程的准确性和健壮性。
2023-09-26 11:29:18
154
代码侠
CSS
...在为更复杂的组件化、模块化前端架构提供更精细的样式控制能力。因此,持续关注CSS标准的发展动态,将有助于我们与时俱进地掌握和利用样式优先级这一核心概念,实现高效且优雅的网页样式设计。
2023-11-06 08:37:41
535
键盘勇士
Python
...代码中计算列表长度、查找元素索引以及执行条件判断更为简洁高效。此外,对于大数据处理或科学计算场景,NumPy库提供的ndarray对象在性能上远超Python原生列表,可以实现快速的矩阵运算和统计分析。 近期,一篇发布于“Real Python”网站的文章深入探讨了如何利用列表推导式(List Comprehensions)和生成器表达式(Generator Expressions)对列表进行复杂操作,如过滤、映射和压缩数据,从而提升代码可读性和运行效率。文章还介绍了functools模块中的reduce函数,用于对列表元素执行累积操作,如求乘积、求序列中最长连续子序列等。 另外,在实际编程实践中,掌握列表的排序、切片、连接、复制等基本操作同样至关重要。例如,使用sorted()函数或列表的sort()方法对列表进行排序;利用切片技术实现列表的部分提取或替换;通过extend()和+运算符完成列表合并等。这些操作不仅能丰富你对Python列表的理解,更能在日常开发任务中助你事半功倍。 总的来说,深入学习和熟练运用Python列表的各种特性与功能,不仅有助于数据分析和处理,更能提升代码编写质量,使程序更加简洁、高效。同时,关注Python社区的最新动态和最佳实践,将能持续拓展你的编程技能边界,紧跟时代发展步伐。
2023-10-05 18:16:18
359
算法侠
JQuery
...开发趋势更倾向于采用模块化和组件化的思维方式。因此,开发者可能会选择将此类逻辑封装成独立的、可复用的函数或类,并通过npm等包管理器进行版本管理和共享。 同时,值得注意的是,虽然jQuery为早期前端开发带来了极大便利,但在追求轻量化、高性能的今天,理解并掌握原生JavaScript API以及现代框架的核心概念与最佳实践,已成为每一位前端工程师必备的能力之一。这不仅可以帮助我们编写出更为简洁高效且易于维护的代码,更能紧跟技术潮流,适应不断变化的前端开发环境。
2023-06-16 18:33:25
110
软件工程师
Java
JQuery
...发者根据CSS选择器查找并返回页面上的元素集合。 近期,一项由MDN Web Docs发起的研究表明,对于简单的DOM查询与操作,原生JavaScript在速度上已经不逊于甚至超越了许多流行的库(如jQuery),这鼓励更多开发者回归原生API以优化性能。同时,诸如Sizzle等独立的选择器引擎项目,不仅为jQuery提供支持,也能被其他库或框架集成,提高了跨平台和跨项目的兼容性及效率。 此外,考虑到现代浏览器对ES6及以上版本特性的广泛支持,如箭头函数、let/const声明以及模板字符串等,使得直接使用JavaScript进行DOM操作更为简洁高效。例如,利用“Node.matches()”方法配合CSS选择器,可以实现与jQuery类似的元素筛选功能,且具备良好的浏览器兼容性。 综上所述,尽管jQuery在简化DOM操作方面曾发挥巨大作用,但随着JavaScript生态的发展,理解和掌握原生API及其最佳实践已成为现代前端开发者的重要技能之一。了解和对比不同选择器方案的优缺点,并结合实际应用场景灵活运用,有助于我们构建更为快速、轻量级的Web应用。
2023-06-13 17:39:52
322
软件工程师
CSS
...户体验具有至关重要的作用。除了上述通过设置margin属性来实现段落空两格以增强文本可读性外,近年来,CSS新特性也在不断丰富和完善对文本布局的控制能力。 例如,CSS Grid布局和Flexbox模块为开发者提供了更为精细的空间布局工具,能够更方便地调整段落、行间距以及元素之间的相对位置关系。另外,CSS逻辑属性(例如:gap、row-gap、column-gap)也使得网格和多列布局中的间距设定更为简洁直观。 近期,CSS Text Level 4规范草案中提出的"line-height-step"属性更是引起了广泛关注。该属性允许开发者定义文本行间距的最小步进值,确保段落间的垂直节奏感,这对于排版设计尤其是长文阅读场景下的体验提升有着深远意义。 此外,响应式设计是现代Web开发不可或缺的部分,利用CSS媒体查询可以根据不同的设备屏幕尺寸动态调整段落间距,使用户在任何设备上都能获得舒适的阅读体验。同时,结合WCAG(Web Content Accessibility Guidelines)标准,合理运用CSS控制段落间距也有助于提高网站的可访问性,让视觉障碍用户使用辅助技术时也能轻松识别段落边界。 综上所述,随着CSS特性的不断发展和完善,网页设计师和开发者们拥有更多灵活且强大的手段来优化段落间距及整体排版效果,从而创造出更具美感与易读性的网页内容。
2023-10-09 16:18:52
480
软件工程师
CSS
...布局和Flexbox模块可以更精确地控制元素的位置与间距,实现复杂而灵活的布局效果。同时,自定义CSS变量(CSS Custom Properties)使得样式更具可维护性和扩展性,尤其在处理动态主题或响应式设计时尤为便捷。 最近,CSS Houdini工作组正在推进一系列底层API,如CSS Paint API、CSS Layout API等,这些新技术允许开发者编写自定义的渲染逻辑,极大地拓宽了CSS的表现力。例如,借助CSS Paint API,开发人员可以创建复杂的视觉效果,如为特定数值范围内的数字赋予渐变背景色。 此外,对于无障碍访问(Accessibility)的关注也在不断提升,CSS也在这方面发挥着重要作用。通过合理运用CSS伪类选择器和ARIA属性,我们可以确保页面中的数字信息对屏幕阅读器等辅助技术友好,从而提高网站的整体可访问性。 综上所述,随着CSS新特性的不断涌现和发展,不仅能够为数字元素添加丰富多彩的背景样式,更能在布局、交互、性能乃至无障碍设计等多个维度提升用户体验,值得前端开发者持续关注并学习实践。
2023-12-24 10:27:23
483
程序媛
Python
VUE
Python
...变量和加载了未使用的模块等错误。 - flake8:一个将pep8、pyflakes和mccabe(代码复杂度检查)结合在一起的工具,提供了一个集成的接口。 下面是一个用flak8进行代码格式检查的例子: import flake8 module = 'example.py' try: flake8.run(module) except SystemExit: pass 在上面的例子中,我们import了flake8模块,然后设置了module变量为我们需要检查的文件路径。接着我们运行了flake8.run()方法,再用try...except...代码块来捕获可能的系统输出异常。 总之,Python格式检查方法可以帮助我们找出代码中的格式错误,从而提高程序的阅读性和易维护性。而我们可以根据自己的需要选择适合自己的相关工具和方法,实现自己的代码风格规范。
2023-12-29 18:49:01
43
数据库专家
HTML
...使得HTML代码更加模块化和可复用。前端开发者可以利用这些新技术构建更复杂、独立且易于维护的UI组件,提高开发效率。 此外,在SEO优化方面,HTML结构和语义化标签的合理使用日益凸显其价值。Google等搜索引擎已明确表示会优先考虑具有良好结构化数据的网页,因此,学习如何通过HTML5语义标签(如 、 、 等)正确描述页面内容,将有助于提升网站在搜索结果中的排名和用户体验。 对于初学者来说,不断实践并参考优质的教程资源至关重要。Mozilla Developer Network(MDN)持续提供详尽的HTML文档及实战案例,帮助开发者紧跟行业步伐,掌握最新的HTML编码技巧与最佳实践。通过积极参与开源项目、参与线上编程挑战以及定期查阅行业资讯,都能有效提升HTML技术水平,从而在实际的网站制作中游刃有余。
2023-05-02 11:53:31
469
码农
Python
...作业是一种非常有用的作用,它可以帮助用户在设定的时间运行特定的作业。在这篇文章中,我们将讨论如何使用Python来完成每天按时作业。 载入关联模块 import schedule import time 设定一个作业 def job(): print("每天按时作业已运行") 设定一个按时器,每日的7:30运行作业 schedule.every().day.at("7:30").do(job) 无限循环来运行按时作业 while True: schedule.run_pending() time.sleep(1) 以上代码中,我们引入了两个库,一个是schedule,另一个是time。schedule是一个Python库,它可以帮助我们进行按时作业的调度。time则是Python内置的时间模块,主要用于线程等待。 我们首先需要设定我们要运行的作业,这里我们简单地打印一句话。接着,我们使用schedule.every().day.at("7:30").do(job)来设定作业的按时运行时间。最后一步,我们通过一个无限循环来持续不断地运行按时作业。 通过以上的代码,我们就可以完成每天按时作业了。如果我们需要运行其他的作业,也可以在job()函数中添加相应的代码。同时,我们也可以通过修改schedule.every().day.at("7:30")来设定运行作业的时间。
2023-01-01 19:28:30
351
软件工程师
CSS
...是CSS自适应设计的作用。 按照屏幕大小,可以替换不同的CSS风格,达到最优的视觉效果。以下是一个基本的实现方法: / 设定默认风格 / body { background-color: FFF; font-size: 14px; } / 设定较小屏幕的风格 / @media screen and (max-width: 480px) { body { font-size: 12px; } } / 设定较大屏幕的风格 / @media screen and (min-width: 768px) { body { background-color: EEE; } } 在上面的代码中,我们首先设定了默认风格,即在任何大小屏幕上都使用的风格。然后我们使用@media查询设定了较小与较大屏幕上的风格。 在较小屏幕上,我们将字体大小缩小到12px。而在较大屏幕上,我们将背景色更改为深灰色。 通过上面的方法,我们可以按照不同屏幕大小使用不同的CSS。这样,我们就可以为用户提供最优的用户体验。
2023-06-07 11:37:32
489
电脑达人
Python
...表达式同样发挥着关键作用。在Web爬虫开发中,开发者们常借助正则表达式提取网页中的URL、邮箱地址以及其他敏感信息,以确保网络环境的安全并提升数据抓取效率。近期一篇来自《信息安全与技术》期刊的研究报告指出,通过对复杂正则表达式的优化运用,研究人员成功提升了对恶意软件特征码的检测精度和速度。 同时,Python社区也在持续优化其内置的re模块,不断推出新的特性以适应更广泛的应用场景。比如在最新版本的Python中,正则表达式引擎已支持Unicode 13标准,能够更好地处理全球多种语言的文本匹配需求。 总之,掌握好Python正则表达式的精髓,不仅可以提升日常编程中的文本处理能力,更能紧跟时代步伐,在大数据分析、网络安全、自然语言处理等领域实现高效精准的数据挖掘与分析。因此,建议读者继续关注Python正则表达式的最新发展动态,并通过实践逐步深入学习更多复杂的正则表达式用法及其实战应用场景。
2023-12-18 14:47:10
168
编程狂人
JQuery
...ery中最常用的两个作用之一。 // 运用JQuery连接html代码 var html = ""; $.each(data, function(index, item){ html += " " + item.title + " " + item.content + " "; }); $("container").html(html); 在这个例子中,我们运用JQuery的each方法对数据进行循环,每次循环都会创建一个包含题目和文本的item,并将它们连接到一个大字符串中。最终运用html方法将这个字符串呈现成DOM结构。 // 给动态创建的元素关联事件 $("container").on("click", ".item", function(){ // 点击item时的处理 }); 在这个例子中,我们运用JQuery的on方法给动态创建的元素关联事件。由于item元素是动态创建的,所以我们需要运用事件委托的方式进行关联。这样可以确保关联的元素都可以响应事件。
2023-12-04 09:15:37
395
逻辑鬼才
转载文章
...JavaScript模块化、组件通信以及Vue.js与原生应用集成的实践案例和最新技术动态。 近期,Vue3.0的发布带来了Composition API的重大更新,它为开发者提供了更灵活的方式组织和复用代码逻辑。在这一新特性下,可以更精细地控制数据流和方法的作用域,同时也能更好地封装并暴露给全局或外部环境使用。例如,通过setup函数,我们可以定义作用于全局状态管理的reactive对象,并利用expose功能将其导出至window,使得外部JS文件或原生App能够安全、高效地访问这些数据和方法。 另一方面,随着PWA(Progressive Web App)和Hybrid App开发模式的普及,Vue.js与原生App之间的通信成为重要议题。Vue Native框架作为Vue.js生态下的产物,允许开发者使用Vue.js语法编写原生移动应用,实现了JavaScript与原生API的无缝对接。此外,借助WebView与JSBridge技术,Vue.js项目中的methods也可以直接与移动端原生SDK进行交互,极大地提升了跨平台开发效率和用户体验。 总之,在实际项目开发过程中,不仅需要掌握将Vue页面methods映射到window的基本技巧,更要关注Vue.js社区及周边生态的发展,学习如何运用新的工具和技术优化组件间、甚至跨平台的通信方式,从而打造出更为强大且适应性强的应用程序。
2023-03-31 11:24:02
43
转载
站内搜索
用于搜索本网站内部文章,支持栏目切换。
知识学习
实践的时候请根据实际情况谨慎操作。
随机学习一条linux命令:
mount /dev/sda1 /mnt
- 挂载设备到指定目录。
推荐内容
推荐本栏目内的其它文章,看看还有哪些文章让你感兴趣。
2023-04-28
2023-08-09
2023-06-18
2023-04-14
2023-02-18
2023-04-17
2024-01-11
2023-10-03
2023-09-09
2023-06-13
2023-08-07
2023-03-11
历史内容
快速导航到对应月份的历史文章列表。
随便看看
拉到页底了吧,随便看看还有哪些文章你可能感兴趣。
时光飞逝
"流光容易把人抛,红了樱桃,绿了芭蕉。"