`

SolrOperationsTools使用

    博客分类:
  • solr
 
阅读更多

basic Solr scripts

 

These scripts are used to manage the index data on the Solr server:

Name

Description

abc

Atomic Backup post-Commit tells the Solr server to perform a commit. A snapshot of the index directory is made after the commit if the Solr server is configured to do so (by enabling the postCommit event listener in solr/conf/solrconfig.xml ). A backup of the most recent snapshot directory is then made if the commit is successful. Backup directories are named backup.yyyymmddHHMMSS where yyyymmddHHMMSS is the timestamp of when the snaphot was taken.

abo

Atomic Backup post-Optimize tells the Solr server to perform an optimize. A snapshot of the index directory is made after the optimize if the Solr server is configured to do so (by enabling the postCommit or postOptimize event listener in solr/conf/solrconfig.xml ). A backup of the most recent snapshot directory is then made if the optimize is successful. Backup directories are named backup.yyyymmddHHMMSS where yyyymmddHHMMSS is the timestamp of when the snaphot was taken.

backup

Backup the index directory using hard links. Backup directories are named backup.yyyymmddHHMMSS where yyyymmddHHMMSS is the timestamp of when the backup was taken.

backupcleaner

Runs as a cron job to remove backups more than a configurable number of days old or all backups except for the most recent n number of backups. Also can be run manually.

commit

Issues a commit to the Solr server. This will also cause a snapshot to be created if the Solr server is configured to take a snapshot after a commit (by enabling the postCommit event listener in solr/conf/solrconfig.xml ).

optimize

Issues an optimize to the Solr server. Note : Optimization may take up to several minutes depending on the size of the index. This will also causes a snapshot to be created if the Solr server is configured to take a snapshot after an optimize (by enabling the postCommit or postOptimize event listener in solr/conf/solrconfig.xml ).

readercycle

tells the Solr server to close its current reader and open a new one. This has the effect of making any recent updates and deletions visible to the new reader.

 

 

abc

 

  • usage: abc [-h hostname] [-p port] [-d dir] [-w webapp_name] [-u username] [-U url] [-v] [-V]
           -h          specify Solr hostname (defaults to localhost)
           -p          specify Solr port number
           -w          specify name of Solr webapp (defaults to solr)
           -u          specify user to sudo to before running script
           -U          specify full update url (overrides -h,-p,-w parameters)
           -d          specify directory holding index data (defaults to data)
           -v          increase verbosity
           -V          output debugging info

 

abo

 

  • usage: abo [-h hostname] [-p port] [-d dir] [-w webapp_name] [-u username] [-U url] [-v] [-V]
           -h          specify Solr hostname (defaults to localhost)
           -p          specify Solr port number
           -w          specify name of Solr webapp (defaults to solr)
           -u          specify user to sudo to before running script
           -U          specify full update url (overrides -h,-p,-w parameters)
           -d          specify directory holding index data (defaults to data)
           -v          increase verbosity
           -V          output debugging info

 

backup

 

  • usage: backup [-d dir] [-u username] [-v]
           -d          specify directory holding index data
           -u          specify user to sudo to before running script
           -v          increase verbosity
           -V          output debugging info

 

backupcleaner

 

  • usage: backupcleaner -D <days> | -N <num> [-d dir] [-u username] [-v]
           -D <days>   cleanup backups more than <days> days old
           -N <num>    keep the most recent <num> number of backups and
                       cleanup up the remaining ones that are not being pulled
           -d          specify directory holding index data
           -u          specify user to sudo to before running script
           -v          increase verbosity
           -V          output debugging info

 

commit

 

  • usage: commit [-h hostname] [-p port] [-w webapp_name] [-u username] [-U url] [-v] [-V]
           -h          specify Solr hostname (defaults to localhost)
           -p          specify Solr port number
           -w          specify name of Solr webapp (defaults to solr)
           -u          specify user to sudo to before running script
           -U          specify full update url (overrides -h,-p,-w parameters)
           -v          increase verbosity
           -V          output debugging info

 

optimize

 

  • usage: optimize [-h hostname] [-p port] [-w webapp_name] [-u username] [-U url] [-v] [-V]
           -h          specify Solr hostname (defaults to localhost)
           -p          specify Solr port number
           -w          specify name of Solr webapp (defaults to solr)
           -u          specify user to sudo to before running script
           -U          specify full update url (overrides -h,-p,-w parameters)
           -v          increase verbosity
           -V          output debugging info

 

readercycle

 

usage: readercycle [-p hostname] [-p port] [-w webapp_name] [-u username] [-U url] [-v] [-V]
       -h          specify Solr hostname (defaults to localhost)
       -p          specify Solr port number
       -w          specify name of Solr webapp (defaults to solr)
       -u          specify user to sudo to before running script
       -U          specify full update url (overrides -h,-p,-w parameters)
       -v          increase verbosity
       -V          output debugging info

 

solr 优化索引成 2段或N段

默认 solr 优化索引的时候,只一个段,比起 N段(N不是很大)来说,可能有点耗时。索引为N段也不会一个文件太大。

可以有两种方式:

url:

  1. curl   "http://localhost:8080/solr/update?maxSegments=2&optimize=true"   
curl "http://localhost:8080/solr/update?maxSegments=2&optimize=true"

xml:

curl  http://localhost:8080/solr/update --data-binary  "<optimize maxSegments=\"2\" />"  -H  "Content-type:text/xml; charset=utf-8"


 

分享到:
评论

相关推荐

    内墙装修涂料行业发展趋势:预计2030年年复合增长率(CAGR)为5.6%(2024-2030)

    内墙装修涂料市场:把握5.6%年复合增长率 在追求舒适与美观并重的现代家居生活中,内墙装修涂料扮演着至关重要的角色。它不仅关乎居室的视觉效果,更与居住者的健康息息相关。令人振奋的是,这一数据背后,隐藏着怎样的市场机遇与挑战?让我们一同探索内墙装修涂料的未来之路。 市场概况: 根据QYR(恒州博智)的统计及预测,2023年全球内墙装修涂料市场销售额达到了149亿元,预计2030年将达到213亿元,年复合增长率(CAGR)为5.6%(2024-2030)。这一增长不仅源于消费者对居住环境品质要求的提升,更得益于技术创新和环保理念的深入人心。 技术创新与趋势: 在内墙装修涂料领域,技术创新是推动市场发展的重要力量。随着环保法规的日益严格和消费者环保意识的增强,低VOC(挥发性有机化合物)、无毒、抗菌等环保型涂料逐渐成为市场主流。同时,智能化、个性化等趋势也日益明显,如通过APP控制涂料颜色、质感等,满足消费者多元化的装修需求。咨询服务在此过程中的价值不言而喻,它能帮助企业紧跟市场趋势,把握技术创新方向,从而在竞争中脱颖而出。 应用领域与细分市场: 内墙装修涂料广泛应用于住宅、酒店、学校、医院

    ventoy-1.0.69-windows

    简化装机流程,解决兼容性问题,尤其对经常装机或者碰到不同新旧机器较多的朋友。 Win多合一 ISO 镜像文件 阿里云: https://www.alipan.com/s/eBAt7dffBF5 提取码: 86xr U盘PE启动工具合集(PE工具箱、Ventoy及插件及主题)

    Ansible部署Kubernetes集群支持多种特定功能StaticPod模式操作手册.zip

    Ansible部署Kubernetes集群支持多种特定功能StaticPod模式操作手册.zip [资源说明] 1、该项目是团队成员近期最新开发,代码完整,资料齐全,含设计文档等 2、上传的项目源码经过严格测试,功能完善且能正常运行,请放心下载使用! 3、本项目适合计算机相关专业(人工智能、通信工程、自动化、电子信息、物联网等)的高校学生、教师、科研工作者、行业从业者下载使用,可借鉴学习,也可直接作为毕业设计、课程设计、作业、项目初期立项演示等,也适合小白学习进阶,遇到问题不懂就问,欢迎交流。 4、如果基础还行,可以在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 5、不懂配置和运行,可远程教学 欢迎下载,学习使用!

    2025年终晚会优秀员工展示相册模板.pptx

    2025年终晚会优秀员工展示相册模板

    感恩母恩母爱如水母亲节主题班会.pptx

    感恩母恩母爱如水母亲节主题班会

    2024毕业设计-基于区块链的医疗信息管理系统含论文报告-最新开发.zip

    2024毕业设计-基于区块链的医疗信息管理系统含论文报告-最新开发.zip [资源说明] 1、该项目是团队成员近期最新开发,代码完整,资料齐全,含设计文档等 2、上传的项目源码经过严格测试,功能完善且能正常运行,请放心下载使用! 3、本项目适合计算机相关专业(人工智能、通信工程、自动化、电子信息、物联网等)的高校学生、教师、科研工作者、行业从业者下载使用,可借鉴学习,也可直接作为毕业设计、课程设计、作业、项目初期立项演示等,也适合小白学习进阶,遇到问题不懂就问,欢迎交流。 4、如果基础还行,可以在此代码基础上进行修改,以实现其他功能,也可直接用于毕设、课设、作业等。 5、不懂配置和运行,可远程教学 欢迎下载,学习使用!

    植物大战僵尸杂交版v3.0.2

    植物大战僵尸杂交版v3.0.2

    瑞幸咖啡企业微信群话术及人设搭建SOP.xlsx

    瑞幸咖啡企业微信群话术及人设搭建SOP.xlsx

    244081112卓皓(2).docx

    244081112卓皓(2).docx

    Spring Boot框架下的权限管理与工作流开发平台系统实现

    项目介绍 Spring Boot + Security + MyBatis Plus 快速开发平台 内置功能 用户管理:用户是系统操作者,该功能主要完成系统用户配置。 权限管理:配置系统菜单,操作权限,按钮权限, 数据权限标识等。 角色管理:角色菜单权限分配、设置角色按机构进行数据范围权限划分。 字典管理:对系统中经常使用的一些较为固定的数据进行维护。 参数管理:对系统动态配置常用参数。 通知公告:系统通知公告信息发布维护。 操作日志:系统正常操作日志记录和查询;系统异常信息日志记录和查询。 登录日志:系统登录日志记录查询包含登录异常。 定时任务:在线(添加、修改、删除)任务调度包含执行结果日志。 代码生成:前后端代码的生成(java、html、xml、sql)支持CRUD下载 。 系统接口:根据业务代码自动生成相关的api接口文档。 服务监控:监视当前系统CPU、内存、磁盘、堆栈等相关信息。 表单构建:拖动表单元素生成相应的HTML代码。 数据监视:监视当前系统数据库连接池状态,可进行分析SQL找出系统性能瓶颈。 租户管理:加入多租户架构, 使用逻辑隔离租户数据。

    猫头虎分享计算2024年博客之星每日可拉票次数程序.html

    猫头虎分享计算2024年博客之星每日可拉票次数程序.html

    吉它书本黑板素材毕业纪念电子相册模板.pptx

    吉它书本黑板素材毕业纪念电子相册模板

    VideoSpeed_87621.zip

    VideoSpeed_87621.zip

    基于hadoop的百度云盘源代码(亲测可用完整项目代码)

    基于hadoop的百度云盘源代码(亲测可用完整项目代码),个人经导师指导并认可通过的毕业设计项目,评审分98分,项目中的源码都是经过本地编译过可运行的,都经过严格调试,确保可以运行!主要针对计算机相关专业的正在做毕业设计的学生和需要项目实战练习的学习者,资源项目的难度比较适中,内容都是经过助教老师审定过的能够满足学习、使用需求,如果有需要的话可以放心下载使用。 基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的百度云盘源代码(亲测可用完整项目代码)基于hadoop的

Global site tag (gtag.js) - Google Analytics