跳过导航链接
A B C D E F G H I L M N O P R S T U W 

A

addFileIndex(FileInfo, String) - 类 中的方法com.ds.index.IndexFactory
 
addIndex(JLuceneIndex, Map) - 类 中的方法com.ds.index.IndexFactory
 
addIndex(JLuceneIndex) - 类 中的方法com.ds.index.IndexFactory
 
addIndex(JLucene) - 类 中的方法com.ds.index.IndexServiceImpl
 
addIndexBean(JLucene) - 类 中的方法com.ds.index.IndexFactory
 
addIndexBean(JLucene, boolean) - 类 中的方法com.ds.index.IndexFactory
 
addWords(Collection<String>) - 类 中的方法org.wltea.analyzer.dic.Dictionary
批量加载新词条
append(Lexeme, int) - 类 中的方法org.wltea.analyzer.core.Lexeme
合并两个相邻的词元

B

BoldFormatter - com.ds.index.highlight中的类
 
BoldFormatter() - 类 的构造器com.ds.index.highlight.BoldFormatter
 
buildHighlighter(IndexSearcher, Analyzer) - 类 中的静态方法com.ds.index.IndexFactory
 

C

com.ds.index - 程序包 com.ds.index
 
com.ds.index.highlight - 程序包 com.ds.index.highlight
 
com.ds.index.sync - 程序包 com.ds.index.sync
 
compareTo(Lexeme) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
Configuration - org.wltea.analyzer.cfg中的接口
配置管理类接口
create(String, String, boolean) - 类 中的静态方法org.wltea.analyzer.query.SWMCQueryBuilder
生成SWMCQuery
createComponents(String) - 类 中的方法org.wltea.analyzer.lucene.IKAnalyzer
 

D

DefaultConfig - org.wltea.analyzer.cfg中的类
Configuration 默认实现 2012-5-8
deleteAllIndex(Condition<T, V>) - 类 中的方法com.ds.index.IndexServiceImpl
 
deleteIndex(JLucene) - 类 中的方法com.ds.index.IndexFactory
 
deleteIndex(Condition<T, V>) - 类 中的方法com.ds.index.IndexFactory
 
deleteIndex(JLucene) - 类 中的方法com.ds.index.IndexServiceImpl
 
Dictionary - org.wltea.analyzer.dic中的类
词典管理类,单子模式
disableWords(Collection<String>) - 类 中的方法org.wltea.analyzer.dic.Dictionary
批量移除(屏蔽)词条

E

end() - 类 中的方法org.wltea.analyzer.lucene.IKTokenizer
 
equals(Object) - 类 中的方法org.wltea.analyzer.core.Lexeme
 

F

formartPath(String) - 类 中的静态方法com.ds.index.sync.IndexSyncLocal
解析path 获取文件夹路径

G

getAnalyzer(Class) - 类 中的方法com.ds.index.sync.IndexSyncLocal
 
getBegin() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
getBegin() - 类 中的方法org.wltea.analyzer.dic.Hit
 
getBeginPosition() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元在文本中的起始位置
getEnd() - 类 中的方法org.wltea.analyzer.dic.Hit
 
getEndPosition() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元在文本中的结束位置
getExtDictionarys() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取扩展字典配置路径
getExtDictionarys() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取扩展字典配置路径
getExtStopWordDictionarys() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取扩展停止词典配置路径
getExtStopWordDictionarys() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取扩展停止词典配置路径
getFolderPath(String) - 类 中的静态方法com.ds.index.sync.IndexSyncLocal
解析path 获取文件夹路径
getFSDirectory(JFSDirectory) - 类 中的静态方法com.ds.index.IndexFactory
获取文件管理 暂不支持回合模式,后期以来VFS独立处理
getIndexByPath(String) - 类 中的方法com.ds.index.IndexFactory
 
getIndexSyncLocal(Path, Long, int) - 类 中的方法com.ds.index.IndexFactory
 
getInstance() - 类 中的静态方法com.ds.index.IndexFactory
 
getInstance() - 类 中的静态方法org.wltea.analyzer.cfg.DefaultConfig
返回单例
getLength() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元的字符长度
getLexemeText() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元的文本内容
getLexemeType() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元类型
getLexemeTypeString() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元类型标示字符串
getMainDictionary() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取主词典路径
getMainDictionary() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取主词典路径
getMatchedDictSegment() - 类 中的方法org.wltea.analyzer.dic.Hit
 
getOffset() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
getQuantifierDicionary() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取量词词典路径
getQuantifierDicionary() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取量词词典路径
getSingleton() - 类 中的静态方法org.wltea.analyzer.dic.Dictionary
获取词典单子实例
getVfsService() - 类 中的方法com.ds.index.IndexFactory
 

H

hashCode() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
highlightTerm(String, TokenGroup) - 类 中的方法com.ds.index.highlight.BoldFormatter
 
Hit - org.wltea.analyzer.dic中的类
表示一次词典匹配的命中
Hit() - 类 的构造器org.wltea.analyzer.dic.Hit
 

I

IKAnalyzer - org.wltea.analyzer.lucene中的类
IK分词器,Lucene Analyzer接口实现 兼容Lucene 6.2.1版本
IKAnalyzer() - 类 的构造器org.wltea.analyzer.lucene.IKAnalyzer
IK分词器Lucene Analyzer接口实现类 默认细粒度切分算法
IKAnalyzer(boolean) - 类 的构造器org.wltea.analyzer.lucene.IKAnalyzer
IK分词器Lucene Analyzer接口实现类
IKSegmenter - org.wltea.analyzer.core中的类
IK分词器主类
IKSegmenter(Reader, boolean) - 类 的构造器org.wltea.analyzer.core.IKSegmenter
IK分词器构造函数
IKSegmenter(Reader, Configuration) - 类 的构造器org.wltea.analyzer.core.IKSegmenter
IK分词器构造函数
IKTokenizer - org.wltea.analyzer.lucene中的类
IK分词器 Lucene Tokenizer适配器类 兼容Lucene 6.2.1版本
IKTokenizer(Reader) - 类 的构造器org.wltea.analyzer.lucene.IKTokenizer
 
IKTokenizer(Reader, boolean) - 类 的构造器org.wltea.analyzer.lucene.IKTokenizer
Lucene 6.2.1 Tokenizer适配器类构造函数
incrementToken() - 类 中的方法org.wltea.analyzer.lucene.IKTokenizer
 
indexDocMap - 类 中的静态变量com.ds.index.sync.IndexSyncLocal
 
IndexFactory - com.ds.index中的类
 
IndexServiceImpl - com.ds.index中的类
 
IndexServiceImpl() - 类 的构造器com.ds.index.IndexServiceImpl
 
IndexSyncLocal - com.ds.index.sync中的类
 
IndexSyncLocal(Path, long, int) - 类 的构造器com.ds.index.sync.IndexSyncLocal
 
initial(Configuration) - 类 中的静态方法org.wltea.analyzer.dic.Dictionary
词典初始化 由于IK Analyzer的词典采用Dictionary类的静态方法进行词典初始化 只有当Dictionary类被实际调用时,才会开始载入词典, 这将延长首次分词操作的时间 该方法提供了一个在应用加载阶段就初始化字典的手段
isMatch() - 类 中的方法org.wltea.analyzer.dic.Hit
判断是否完全匹配
isPrefix() - 类 中的方法org.wltea.analyzer.dic.Hit
判断是否是词的前缀
isStopWord(char[], int, int) - 类 中的方法org.wltea.analyzer.dic.Dictionary
判断是否是停止词
isUnmatch() - 类 中的方法org.wltea.analyzer.dic.Hit
判断是否是不匹配

L

Lexeme - org.wltea.analyzer.core中的类
IK词元对象
Lexeme(int, int, int, int) - 类 的构造器org.wltea.analyzer.core.Lexeme
 
logger - 类 中的静态变量com.ds.index.IndexFactory
 

M

main(String[]) - 类 中的静态方法com.ds.index.IndexFactory
 
main(String[]) - 类 中的静态方法com.ds.index.sync.IndexSyncLocal
 
matchInMainDict(char[]) - 类 中的方法org.wltea.analyzer.dic.Dictionary
检索匹配主词典
matchInMainDict(char[], int, int) - 类 中的方法org.wltea.analyzer.dic.Dictionary
检索匹配主词典
matchInQuantifierDict(char[], int, int) - 类 中的方法org.wltea.analyzer.dic.Dictionary
检索匹配量词词典
matchWithHit(char[], int, Hit) - 类 中的方法org.wltea.analyzer.dic.Dictionary
从已匹配的Hit中直接取出DictSegment,继续向下匹配

N

next() - 类 中的方法org.wltea.analyzer.core.IKSegmenter
分词,获取下一个词元

O

org.wltea.analyzer.cfg - 程序包 org.wltea.analyzer.cfg
 
org.wltea.analyzer.core - 程序包 org.wltea.analyzer.core
 
org.wltea.analyzer.dic - 程序包 org.wltea.analyzer.dic
 
org.wltea.analyzer.lucene - 程序包 org.wltea.analyzer.lucene
 
org.wltea.analyzer.query - 程序包 org.wltea.analyzer.query
 

P

pushIndex(JLucene, Document) - 类 中的方法com.ds.index.sync.IndexSyncLocal
 

R

removeIndex(Query, JLucene) - 类 中的方法com.ds.index.sync.IndexSyncLocal
 
removeIndex(JLucene) - 类 中的方法com.ds.index.sync.IndexSyncLocal
 
removeIndexPath(String) - 类 中的方法com.ds.index.IndexFactory
 
reset(Reader) - 类 中的方法org.wltea.analyzer.core.IKSegmenter
重置分词器到初始状态
reset() - 类 中的方法org.wltea.analyzer.lucene.IKTokenizer
 

S

search(Condition<T, V>) - 类 中的方法com.ds.index.IndexFactory
 
search(V, Query, Sort, Integer, Integer) - 类 中的方法com.ds.index.IndexFactory
 
search(Condition<T, V>) - 类 中的方法com.ds.index.IndexServiceImpl
 
setBegin(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setBegin(int) - 类 中的方法org.wltea.analyzer.dic.Hit
 
setEnd(int) - 类 中的方法org.wltea.analyzer.dic.Hit
 
setLength(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setLexemeText(String) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setLexemeType(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setMatch() - 类 中的方法org.wltea.analyzer.dic.Hit
 
setMatchedDictSegment(DictSegment) - 类 中的方法org.wltea.analyzer.dic.Hit
 
setOffset(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setPrefix() - 类 中的方法org.wltea.analyzer.dic.Hit
 
setUnmatch() - 类 中的方法org.wltea.analyzer.dic.Hit
 
setUseSmart(boolean) - 接口 中的方法org.wltea.analyzer.cfg.Configuration
设置useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
setUseSmart(boolean) - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
设置useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
setUseSmart(boolean) - 类 中的方法org.wltea.analyzer.lucene.IKAnalyzer
 
SWMCQueryBuilder - org.wltea.analyzer.query中的类
Single Word Multi Char Query Builder IK分词算法专用
SWMCQueryBuilder() - 类 的构造器org.wltea.analyzer.query.SWMCQueryBuilder
 

T

THREAD_LOCK - 类 中的静态变量com.ds.index.IndexFactory
 
toString() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
TYPE_ARABIC - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CNCHAR - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CNUM - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CNWORD - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_COUNT - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CQUAN - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_ENGLISH - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_LETTER - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_OTHER_CJK - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_UNKNOWN - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 

U

useSmart() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
返回useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
useSmart() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
返回useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
useSmart() - 类 中的方法org.wltea.analyzer.lucene.IKAnalyzer
 

W

writerMap - 类 中的静态变量com.ds.index.sync.IndexSyncLocal
 
A B C D E F G H I L M N O P R S T U W 
跳过导航链接

Copyright © 2023 onecode. All rights reserved.