- 浏览: 482283 次
- 性别:
- 来自: 湖南
文章分类
- 全部博客 (201)
- j2ee (43)
- oracle (9)
- mysql (7)
- db2 (1)
- j2se (3)
- spring (1)
- hibernate (3)
- struts (0)
- Berkeley DB (0)
- linux (60)
- Apache2+PHP+MYSQL (2)
- solr (15)
- svn (1)
- IntelliJ Idea (1)
- eclipse,myeclipse (4)
- ant (2)
- vim (8)
- IT生活 (4)
- 测试 (6)
- lucene (4)
- shell (1)
- nutch (18)
- thread (1)
- hadoop (5)
- mapreduce (0)
- Python (4)
- 硬件 (1)
- database (1)
- maven (1)
- 正则表达 (0)
- 互联网 (1)
最新评论
-
youngcoder:
good job
HTTP协议头部与Keep-Alive模式详解 -
javazdq:
受教了 解释的不错。
lucene创建索引高级特性和索引创建参数优化 -
josico:
有几个问题想问下楼主1. LinkedBlockingQueu ...
生产者-消费者-BlockingQueue -
annybz:
有没有关于 BlockingQueue和ConcurrentL ...
生产者-消费者-BlockingQueue -
uniquejava:
多谢,记录的很真实。
DB2 学习记录
basic Solr scripts
These scripts are used to manage the index data on the Solr server:
Name |
Description |
abc |
Atomic Backup post-Commit tells the Solr server to perform a commit. A snapshot of the index directory is made after the commit if the Solr server is configured to do so (by enabling the postCommit event listener in solr/conf/solrconfig.xml ). A backup of the most recent snapshot directory is then made if the commit is successful. Backup directories are named backup.yyyymmddHHMMSS where yyyymmddHHMMSS is the timestamp of when the snaphot was taken. |
abo |
Atomic Backup post-Optimize tells the Solr server to perform an optimize. A snapshot of the index directory is made after the optimize if the Solr server is configured to do so (by enabling the postCommit or postOptimize event listener in solr/conf/solrconfig.xml ). A backup of the most recent snapshot directory is then made if the optimize is successful. Backup directories are named backup.yyyymmddHHMMSS where yyyymmddHHMMSS is the timestamp of when the snaphot was taken. |
backup |
Backup the index directory using hard links. Backup directories are named backup.yyyymmddHHMMSS where yyyymmddHHMMSS is the timestamp of when the backup was taken. |
backupcleaner |
Runs as a cron job to remove backups more than a configurable number of days old or all backups except for the most recent n number of backups. Also can be run manually. |
commit |
Issues a commit to the Solr server. This will also cause a snapshot to be created if the Solr server is configured to take a snapshot after a commit (by enabling the postCommit event listener in solr/conf/solrconfig.xml ). |
optimize |
Issues an optimize to the Solr server. Note : Optimization may take up to several minutes depending on the size of the index. This will also causes a snapshot to be created if the Solr server is configured to take a snapshot after an optimize (by enabling the postCommit or postOptimize event listener in solr/conf/solrconfig.xml ). |
readercycle |
tells the Solr server to close its current reader and open a new one. This has the effect of making any recent updates and deletions visible to the new reader. |
abc
-
usage: abc [-h hostname] [-p port] [-d dir] [-w webapp_name] [-u username] [-U url] [-v] [-V] -h specify Solr hostname (defaults to localhost) -p specify Solr port number -w specify name of Solr webapp (defaults to solr) -u specify user to sudo to before running script -U specify full update url (overrides -h,-p,-w parameters) -d specify directory holding index data (defaults to data) -v increase verbosity -V output debugging info
abo
-
usage: abo [-h hostname] [-p port] [-d dir] [-w webapp_name] [-u username] [-U url] [-v] [-V] -h specify Solr hostname (defaults to localhost) -p specify Solr port number -w specify name of Solr webapp (defaults to solr) -u specify user to sudo to before running script -U specify full update url (overrides -h,-p,-w parameters) -d specify directory holding index data (defaults to data) -v increase verbosity -V output debugging info
backup
-
usage: backup [-d dir] [-u username] [-v] -d specify directory holding index data -u specify user to sudo to before running script -v increase verbosity -V output debugging info
backupcleaner
-
usage: backupcleaner -D <days> | -N <num> [-d dir] [-u username] [-v] -D <days> cleanup backups more than <days> days old -N <num> keep the most recent <num> number of backups and cleanup up the remaining ones that are not being pulled -d specify directory holding index data -u specify user to sudo to before running script -v increase verbosity -V output debugging info
commit
-
usage: commit [-h hostname] [-p port] [-w webapp_name] [-u username] [-U url] [-v] [-V] -h specify Solr hostname (defaults to localhost) -p specify Solr port number -w specify name of Solr webapp (defaults to solr) -u specify user to sudo to before running script -U specify full update url (overrides -h,-p,-w parameters) -v increase verbosity -V output debugging info
optimize
-
usage: optimize [-h hostname] [-p port] [-w webapp_name] [-u username] [-U url] [-v] [-V] -h specify Solr hostname (defaults to localhost) -p specify Solr port number -w specify name of Solr webapp (defaults to solr) -u specify user to sudo to before running script -U specify full update url (overrides -h,-p,-w parameters) -v increase verbosity -V output debugging info
readercycle
usage: readercycle [-p hostname] [-p port] [-w webapp_name] [-u username] [-U url] [-v] [-V] -h specify Solr hostname (defaults to localhost) -p specify Solr port number -w specify name of Solr webapp (defaults to solr) -u specify user to sudo to before running script -U specify full update url (overrides -h,-p,-w parameters) -v increase verbosity -V output debugging info
solr 优化索引成 2段或N段
默认 solr 优化索引的时候,只一个段,比起 N段(N不是很大)来说,可能有点耗时。索引为N段也不会一个文件太大。
可以有两种方式:
url:
- curl "http://localhost:8080/solr/update?maxSegments=2&optimize=true"
curl "http://localhost:8080/solr/update?maxSegments=2&optimize=true"
xml:
curl http://localhost:8080/solr/update --data-binary "<optimize maxSegments=\"2\" />" -H "Content-type:text/xml; charset=utf-8"
发表评论
-
对Lucene PhraseQuery的slop的理解
2012-06-12 10:55 1596所谓PhraseQuery,就是通过短语来检索,比如我想查“b ... -
Solr 获取分词
2012-05-07 18:32 3587个人博客:http://demi-panda.com ... -
Apache Lucene 和 Solr 进行位置感知搜索
2012-04-26 18:26 1179个人技术博客:http://demi-panda.com ... -
Lucene Similarity (Lucene 文档评分score机制详解)
2012-04-06 16:06 1857个人博客:http://demi-panda.com ... -
Solr Replication
2012-02-21 17:41 3176个人博客:http://demi-pand ... -
Solr 同义词搜索 synonyms
2012-02-09 18:30 2616个人技术博客:http://demi-panda.com ... -
Solr合并索引方式
2011-12-09 15:41 39141, Solr 合并索引数据有 ... -
Solr Faceted
2011-11-26 17:07 1187http://www.lucidimagination.com ... -
LucidGaze for Solr 搜索监测工具
2010-11-14 22:56 1745LucidGaze for Solr 搜索监测工具 ... -
SOLR的分布式部署(复制)CollectionDistribute 快照分发 (精简版)
2010-08-20 13:34 2590SOLR复制模式,是一种在分布式环境下用于同步主 ... -
solr 分布式(复制)配置
2010-08-20 13:33 1804solr 分布式(复制)配置 s ... -
solr1.4配置IKAnalyzer3.2
2010-08-14 23:56 2195个人技术博客:http://demi-panda.com ... -
Lucene/Solr开发经验[转载]
2010-08-14 21:44 1567Lucene/Solr开发经验[转载] ... -
solr1.4 中文 庖丁 使用方法
2010-08-14 21:35 2013由于solr1.4使用Lucene 2.9.1 ,故需要修改庖 ...
相关推荐
复古怀旧教室桌椅素材同学聚会毕业纪念册模板
内容概要:本文详细介绍了关于寻找最长回文子串的相关知识,包括前置理论、不同求解方法的具体操作及其优势。首先,阐述了回文串这一特殊结构的概念及其特性——正序逆序完全一致。紧接着,围绕中心扩展法和马拉车算法展开叙述。前者基于字符逐一检查周边字符的方法,在每一点向外延伸探索最长相同序列。而后者利用预处理阶段将字符间隔用特殊符号填充形成全新字符串形式,并建立相应的辅助工具(如回文半径数组)用于跟踪回文中点位置与范围变动情况,再经由巧妙规则判定并逐步推进搜索进度,从而大大降低了运行成本。最后还提到了两种常规方法——动态规划与中心扩展的具体思路以及它们各自适用的情况和局限性。 适合人群:正在研究或学习数据结构和算法特别是字符串处理相关领域的技术人员和爱好者。 使用场景及目标:帮助开发者针对字符串匹配类的问题,尤其是回文判定和查找场景,掌握更多高效的解决方案,优化程序性能。具体应用场景如文本编辑器、搜索引擎中的关键字检索等方面可能会涉及到这类算法的应用。
前端分析-2023071100789
国货彩妆品牌Q1社媒营销投放分析报告
内螺旋覆盖算法(ISC)是一种用于填充正方形矩阵的算法。它的主要思想是按照一定的规则将矩阵从外部向内部进行覆盖,直到矩阵的中心被填充。在覆盖的环境区域内,机器人按一定的方向如顺时针或逆时针进行覆盖,当前方有未覆盖的栅格时机器人就向前运动,如果前方有障碍物或者已经被覆盖过,则机器要向右(或向左)旋转 90 °继续向前行走。
21电平MMC整流站、MMC逆变站、两端柔性互联的MATLAB仿真模型,4端柔性互联、MMC桥臂平均值模型、MMC聚合模型(四端21电平一分钟即能完成2s的工况仿真) 1-全部能正常运行,图四和图五为仿真波形 2-双闭环控制,逆变站PQ控制,整流站站Udc Q控制 3-最近电平逼近调制+子模块电容充电 4-环流抑制控制
永磁同步电机电流滞环控制Matlab simulink仿真模型,参数已设置好,可直接运行。 属于PMSM转速电流双闭环矢量控制系统模型。 电流内环采用电流滞环控制(pang-pang控制),转速外环为PI控制。 波形完美,包含原理说明文档和参考文献。
基于java的项目申报管理系统设计与实现.docx
项目介绍 Spring Boot + Security + MyBatis Plus 快速开发平台 内置功能 用户管理:用户是系统操作者,该功能主要完成系统用户配置。 权限管理:配置系统菜单,操作权限,按钮权限, 数据权限标识等。 角色管理:角色菜单权限分配、设置角色按机构进行数据范围权限划分。 字典管理:对系统中经常使用的一些较为固定的数据进行维护。 参数管理:对系统动态配置常用参数。 通知公告:系统通知公告信息发布维护。 操作日志:系统正常操作日志记录和查询;系统异常信息日志记录和查询。 登录日志:系统登录日志记录查询包含登录异常。 定时任务:在线(添加、修改、删除)任务调度包含执行结果日志。 代码生成:前后端代码的生成(java、html、xml、sql)支持CRUD下载 。 系统接口:根据业务代码自动生成相关的api接口文档。 服务监控:监视当前系统CPU、内存、磁盘、堆栈等相关信息。 表单构建:拖动表单元素生成相应的HTML代码。 数据监视:监视当前系统数据库连接池状态,可进行分析SQL找出系统性能瓶颈。 租户管理:加入多租户架构, 使用逻辑隔离租户数据。
3.0版-聊天业务实现.7z
Hyperledger Fabric支持的分布式身份可信认证区块链解决方案(含链码、启动脚本及SDK).zip [资源说明] 1、该项目是团队成员近期最新开发,代码完整,资料齐全,含设计文档等 2、上传的项目源码经过严格测试,功能完善且能正常运行,请放心下载使用! 3、本项目适合计算机相关专业(人工智能、通信工程、自动化、电子信息、物联网等)的高校学生、教师、科研工作者、行业从业者下载使用,可借鉴学习,也可直接作为毕业设计、课程设计、作业、项目初期立项演示等,也适合小白学习进阶,遇到问题不懂就问,欢迎交流。 4、如果基础还行,可以在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 5、不懂配置和运行,可远程教学 欢迎下载,学习使用!
ffmpeg 是一个非常强大且灵活的多媒体处理工具,广泛用于视频和音频的转码、剪辑、转换格式、调整尺寸、添加水印等多种操作。
1.【锂电池剩余寿命预测】CNN卷积神经网络锂电池剩余寿命预测,马里兰大学锂电池数据集(Pytorch完整源码和数据) 2.数据集:马里兰大学锂电池数据集,已经处理好; 3.环境准备:python 3.8 , pytorch 1.8 版本及其以上,代码格式ipynb文件,可读性强; 4.模型描述:CNN-Transformer在各种各样的问题上表现非常出色,现在被广泛使用。 5.领域描述:近年来,随着锂离子电池的能量密度、功率密度逐渐提升,其安全性能与剩余使用寿命预测变得愈发重要。本代码实现了CNN卷积神经网络在该领域的应用。 6.作者介绍:机器学习之心,博客专家认证,机器学习领域创作者,2023博客之星TOP50,文章底部有博主联系方式。从事Matlab、Python算法仿真工作8年,更多仿真源码、数据集定制私信。