一、关系
AttributeSource→TokenStream→Tokenizer
↓
TokenFilter
=============================================
Analyzer中的一个抽象方法是
//属性 private final ReuseStrategy reuseStrategy; ======================================== //TokenStreamComponents //保存了tokenizer和tokeniStream //也可以设置Reader protected abstract TokenStreamComponents createComponents(String fieldName,Reader reader); ======================================== //得到TokenStream public final TokenStream tokenStream(final String fieldName, final Reader reader) throws IOException { //ReuseStrategy这个内部类是干吗的? // private CloseableThreadLocal<Object> storedValue = new CloseableThreadLocal<Object>(); //内部抽象类 GlobalReuseStrategy 存放:TokenStreamComponents // PerFieldReuseStrategy存放 Map<String, TokenStreamComponents> private final ReuseStrategy reuseStrategy; TokenStreamComponents components = reuseStrategy.getReusableComponents(fieldName); final Reader r = initReader(fieldName, reader); if (components == null) { components = createComponents(fieldName, r); reuseStrategy.setReusableComponents(fieldName, components); } else { components.setReader(r); } return components.getTokenStream(); }
分词输出例子:
Analyzer a=new WhitespaceAnalyzer(Version.LUCENE_43); TokenStream tokenStream=a.tokenStream("CESHI", new StringReader("I LOVE YOU!")); CharTermAttribute termAttribute = tokenStream.addAttribute(CharTermAttribute.class); tokenStream.reset(); //java.lang.ArrayIndexOutOfBoundsException while(tokenStream.incrementToken()){ System.out.print("["+termAttribute.toString()+" }
二、TokenStream的一些方法和属性
//对于Reader的解析,Token的不断输出 public abstract boolean incrementToken() throws IOException; public void reset() throws IOException {}
三、Tokenizer的属性和方法
//声明Tokenizer的时候必须有Reader Reader
四、CharTokenizer
public abstract class CharTokenizer extends Tokenizer { //tokenizer的属性Reader public CharTokenizer(Version matchVersion, Reader input) { super(input); charUtils = CharacterUtils.getInstance(matchVersion); } public CharTokenizer(Version matchVersion, AttributeFactory factory, Reader input) { super(factory, input); charUtils = CharacterUtils.getInstance(matchVersion); } // note: bufferIndex is -1 here to best-effort AIOOBE consumers that don't call reset() //用这些参数的时候必须reset()下 把bufferIndex=0 //因为第一次处理的时候 if (bufferIndex >= dataLen) 不然reader充值不进来? private int offset = 0, bufferIndex = -1, dataLen = 0, finalOffset = 0; private static final int MAX_WORD_LEN = 255; //允许单词的最大长度 private static final int IO_BUFFER_SIZE = 4096;//一次允许的最大的字符数 //添加一些attribute private final CharTermAttribute termAtt = addAttribute(CharTermAttribute.class); private final OffsetAttribute offsetAtt = addAttribute(OffsetAttribute.class); //CharacterUtils的方法 //codePointAt fill //通过 Character得到该类提供了几种方法,以确定字符的类别(小写字母,数字,等等),并将字符从大写转换成小写,反之亦然 private final CharacterUtils charUtils; //CharacterBuffer的属性 //char[] buffer; int offset; int length; private final CharacterBuffer ioBuffer = CharacterUtils.newCharacterBuffer(IO_BUFFER_SIZE); //判断是不是token protected abstract boolean isTokenChar(int c); //当看到小写处理的时候是处理掉了 转换为小写了。 protected int normalize(int c) { return c; } @Override public final boolean incrementToken() throws IOException { //这个处理是attributeSource处理的具体纳特state没看懂? clearAttributes(); int length = 0; int start = -1; // this variable is always initialized int end = -1; char[] buffer = termAtt.buffer(); //循环开始?? //offset的明白了一点,但是termAtt怎么得到字符的哪?又是怎么得到小写字符的哪? while (true) { //把tokenizer的reader的值赋值到ioBuffer里 if (bufferIndex >= dataLen) { offset += dataLen; //tokenizer有reader参数 //实例化analyzer必须实现的方法返回TokenStreamComponents 这个类实现需要tokenizer 属性reader,TokenStream //把输入流填充到ioBuffer中 if(!charUtils.fill(ioBuffer, input)) { // read supplementary char aware with CharacterUtils dataLen = 0; // so next offset += dataLen won't decrement offset if (length > 0) { break; } else { finalOffset = correctOffset(offset); return false; } } //赋值成功的话datLen会得到数据长度 dataLen = ioBuffer.getLength(); bufferIndex = 0; } //赋值成功后判断偏移量的字符 返回给定索引上的 Unicode 代码点 final int c = charUtils.codePointAt(ioBuffer.getBuffer(), bufferIndex); //确定表示指定字符(Unicode 代码点)所需的 char 值的数量 具体也不清楚 final int charCount = Character.charCount(c); bufferIndex += charCount; //WhitespaceTokenizer 判断是否是空格 //如果length>0也跳出了循环 if (isTokenChar(c)) { // if it's a token char //如果length==0 / start if (length == 0) { // start of token assert start == -1; start = offset + bufferIndex - charCount; end = start; } else if (length >= buffer.length-1) { // check if a supplementary could run out of bounds buffer = termAtt.resizeBuffer(2+length); // make sure a supplementary fits in the buffer } end += charCount; length += Character.toChars(normalize(c), buffer, length); // buffer it, normalized if (length >= MAX_WORD_LEN) // buffer overflow! make sure to check for >= surrogate pair could break == test break; } else if (length > 0) // at non-Letter w/ chars break; // return 'em } termAtt.setLength(length); assert start != -1; offsetAtt.setOffset(correctOffset(start), finalOffset = correctOffset(end)); return true; } @Override public final void end() { offsetAtt.setOffset(finalOffset, finalOffset); } //重置属性 @Override public void reset() throws IOException { bufferIndex = 0; offset = 0; dataLen = 0; finalOffset = 0; ioBuffer.reset(); // make sure to reset the IO buffer!! } }
相关推荐
### Lucene自学知识点详解 #### 一、Lucene概述与基本概念 - **Lucene**:Lucene是一款...通过以上知识点的学习,我们可以了解到Lucene的核心架构及其关键组成部分的工作原理,这对于深入理解和应用Lucene至关重要。
dnSpy-net-win32-222.zip
和美乡村城乡融合发展数字化解决方案.docx
如何看待“适度宽松”的货币政策.pdf
NCO 3.0.18 64位
法码滋.exe法码滋2.exe法码滋3.exe
* GPS IMU经典15维ESKF松组合 * VRU/AHRS姿态融合算法 * 捷联惯导速度位置姿态解算例子 * UWB IMU紧组合融合 * 每个例子自带数据集
在现代社会生活与生产活动下,不可避免的会产生巨量且多样的垃圾。我国的人口和经济总量均位居世界前列,因此,必然面临着庞大数量的垃圾处理的难题。如何通过人工智能来对垃圾进行有效分类,成为当前备受关注的研究热点。本文为展开基于深度网络的垃圾识别与分类算法研究,先使用PyTorch框架中的transforms方法对数据进行预处理操作,后经过多次调参实验,对比朴素贝叶斯模型、Keras卷积神经网络模型、ResNeXt101模型的垃圾分类效果。确定最佳分类模型是ResNeXt101,该模型在GPU环境下的分类准确率达到了94.7%。最后利用postman软件来测试API接口,完成图片的在线预测。在微信开发者工具的基础上,利用一些天行数据的垃圾分类的API接口再结合最佳模型的API接口,开发出了一个垃圾分类微信小程序。本文的研究内容丰富和完善了垃圾图像分类的相关研究,也为后续的研究提供了一定的参考价值。
一、上位机简介 在单片机项目开发中,上位机也是一个很重要的部分,主要用于数据显示(波形、温度等)、用户控制(LED,继电器等),下位机(单片机)与 上位机之间要进行数据通信的两种方式都是基于串口的: USB转串口 —— 上位机和下位机通过USB转串口连接线直接相连进行数据交互 串口转WIFI(ESP8266)—— 上位机和下位机基于TCP/IP协议通过以太网或者WIFI传输数据 串口转蓝牙(HC-06)—— 不多用,暂不介绍 Windows上位机(EXE可执行程序),最早用VB语言开发,后来由于C++的发展,采用MFC开发,近几年,微软发布了基于.NET框架的面向对象语言C#,更加稳定安全,再配合微软强大的VS进行开发,效率奇高。 本文使用Visual Studio 2022作为开发环境,上位机开发主要有WPF框架与Winform框架,他们都是基于.NET框架 WPF需要C/S基础,使用XAML来构建应用UI,界面比较美观,但是内存开销大 Winform可以使用窗口控件来构建应用,比较简单易学 二、开发环境设置 1. 安装Visual Studio 首先,确保你已经
course_s4_ALINX_ZYNQ_MPSoC开发平台Linux驱动教程V1.04.pdf
基于JavaWeb的毕业季旅游一站式定制服务平台_88z1j4jp_208-wx-(1).zip
Apeaksoft Data Recovery for Mac v1.6.16
cms测试练习项目(linux系统部署),可以用来进行python的测试练手项目
数据集简介:大学录取结果分析 概述 大学录取结果数据集包含了有关大学录取过程的信息,包括关键变量,可用于分析不同学术因素与申请者是否被录取之间的关系。该数据集非常适合进行探索性数据分析、训练预测模型以及研究影响录取决策的因素。 数据集列描述 admit:指示申请者是否被录取(1=被录取,0=未录取)。 paes:申请者在高等教育能力测试(PAES)中获得的分数。 nem:中学教育成绩平均分,评分范围从1.0到7.0。 rank:申请者在其班级中的排名,数值越低表示排名越好。 数据集目的 本数据集旨在让用户探索学术指标(如PAES分数、GPA和排名)与大学录取成功率之间的关系。这可以用于: 开发预测模型:基于学术表现预测录取可能性。 识别趋势:找出影响录取的关键学术因素。 生成可视化图表:理解分数分布及录取结果的关系。 数据集规模 记录数:1813条。 列数:5列。
STM32F427+rtthread下的bootload 网口(webclient)+串口(ymodem)传输,代码无质量,谨慎使用
1. 用户管理功能 用户注册与登录:用户可以通过手机号、邮箱等方式注册账户,并且可以通过账号登录系统进行购票、查看历史订单等操作。 个人信息管理:用户可以查看和修改个人信息(如姓名、手机号、邮箱等),并进行密码重置等操作。 实名认证:部分电影院购票系统要求用户进行实名认证,确保用户身份的真实性。 2. 电影信息展示功能 电影排片查询:用户可以查看当前和未来一段时间内的电影排片表,包括电影名称、上映时间、影片时长、类型、导演、演员等详细信息。 电影详情页:点击具体电影后,用户可以查看电影的详细信息,如剧情介绍、影评、评分、预告片等内容。 电影评分与评论:用户可以查看其他观众的评分和评论,也可以对已观看的电影进行评分和评论。 3. 座位选择与预定功能 影厅座位图:系统展示每场次的影厅座位图,用户可以通过座位图查看当前座位的状态(如可选、已选、已售出、VIP座位等)。 座位选择:用户可以选择自己喜欢的座位,系统会实时更新座位的可用状态,避免重复选择。 座位偏好设置:用户可以设置自己的座位偏好,如选择前排、中排或后排,靠窗或靠过道等。 4. 电影票购买与支付功能 票价展示:系统会展示每个座位的
Bukkit-BETA1.8.1服务端核心
内容概要:本文详细介绍了快速排序算法的原理和在Go语言中的高效实现方法。首先解释了快速排序的基本思想和实现步骤,接着提供了Go语言中实现快速排序的核心代码,并讨论了性能优化策略。最后,通过具体的应用场景实例,展示了快速排序在实际项目中的高效应用。 适合人群:具备一定编程基础,特别是对Go语言感兴趣的开发人员。 使用场景及目标:①理解快速排序算法的基本原理和分治策略;②学习如何在Go语言中高效实现快速排序;③掌握快速排序在实际项目中的应用实例。 阅读建议:本文不仅详细讲解了快速排序的原理,还提供了具体的实现代码和优化策略,建议读者在阅读过程中尝试实现和调试代码,以便更好地理解和掌握相关知识点。
项目包含完整前后端源码和数据库文件,均测试可正常运行 环境说明: 开发语言:Java 框架:ssm,mybatis JDK版本:JDK1.8 数据库:mysql 5.7 数据库工具:Navicat11 开发软件:eclipse/idea Maven包:Maven3.3 部署容器:tomcat7
NSMethodNotImplementedException如何解决