<?xml version="1.0" encoding="UTF-8" ?>
<config>
<!-- 当配置文件出错时退出 -->
<abortOnConfigurationError>${solr.abortOnConfigurationError:true}</abortOnConfigurationError>
<luceneMatchVersion>4.5</luceneMatchVersion>
<directoryFactory name="DirectoryFactory"
class="${solr.directoryFactory:solr.NRTCachingDirectoryFactory}" />
<codecFactory class="solr.SchemaCodecFactory" />
<schemaFactory class="ClassicIndexSchemaFactory" />
<indexConfig>
<!-- 它对所有域生效,可以将它注释掉,不限制域中的词元个数。即使没有强制限制,你还要受Java内存分配的限制,如果超过内存分配限制,就会抛出错误 -->
<filter class="solr.LimitTokenCountFilterFactory"
maxTokenCount="10000" />
<!-- 设置写锁的延迟时间 -->
<writeLockTimeout>10000</writeLockTimeout>
<maxIndexingThreads>20</maxIndexingThreads>
<!-- 设置 UseCompoundFile 为 true 时,solr 会将数据索引到一个索引文件中。 有的操作系统有限制一个线程打开文件的数量,
设置这个值为 true 时,可以避免达到这个文件数量限制。 这个设置也将影响索引复制时需要传输的数据量 -->
<useCompoundFile>false</useCompoundFile>
<!-- 缓存大小文档数大小,达到大小后将执行更新动作。如果两个值都被设置,谁先达到谁先触发动作 -->
<ramBufferSizeMB>1024</ramBufferSizeMB>
<!-- 设置索引刷新到磁盘前,缓存在内存中文档的数量。Solr 默认情况下没有设置该值 -->
<maxBufferedDocs>10000</maxBufferedDocs>
<mergePolicy class="org.apache.lucene.index.TieredMergePolicy">
<int name="maxMergeAtOnce">10</int>
<int name="segmentsPerTier">10</int>
</mergePolicy>
<mergeFactor>10</mergeFactor>
<mergeScheduler class="org.apache.lucene.index.ConcurrentMergeScheduler" />
<lockType>${solr.lock.type:native}</lockType>
<!-- 启动时解锁,所类型为none或single只读锁时无效,默认设置为假。 -->
<unlockOnStartup>true</unlockOnStartup>
<!-- 将经常使用的内容加入内存,默认128,大部分时候够用了-->
<termIndexInterval>128</termIndexInterval>
<!-- 如果为true,索引读取器将重新打开(通常更有效率) 代替关闭索引之后再重新打开索引读取器 -->
<reopenReaders>true</reopenReaders>
<!-- 合并策略 -->
<deletionPolicy class="solr.SolrDeletionPolicy">
<!-- 最多持有提交点的数量 -->
<str name="maxCommitsToKeep">1</str>
<!-- 最多持有优化提交点的数量 -->
<str name="maxOptimizedCommitsToKeep">0</str>
<!-- 一旦达到指定的时间删除所有的提交点 -->
<str name="maxCommitAge">2MINUTES</str>
<str name="maxCommitAge">1DAY</str>
</deletionPolicy>
<!-- 将indexWriter执行的调试信息输出到指定文本中 -->
<infoStream file="INFOSTREAM.txt">false</infoStream>
</indexConfig>
<!-- 默认的高性能更新接口 -->
<updateHandler class="solr.DirectUpdateHandler2">
<updateLog class="solr.FSUpdateLog">
<str name="dir">${solr.data.dir:}</str>
</updateLog>
<maxPendingDeletes>10000</maxPendingDeletes>
<autoCommit>
<maxDocs>6000000</maxDocs>
<!--maxTime>100000</maxTime -->
<openSearcher>false</openSearcher>
</autoCommit>
<autoSoftCommit>
<maxTime>100000</maxTime>
</autoSoftCommit>
</updateHandler>
<query>
<maxBooleanClauses>1024</maxBooleanClauses>
<filterCache class="solr.FastLRUCache" size="100"
initialSize="100" autowarmCount="100" timeDecay="true" />
<!-- queryResultCache class="solr.LFUCache" size="100"
initialSize="100" autowarmCount="100" timeDecay="true" /-->
<!-- documentCache class="solr.LFUCache" size="100"
initialSize="100" autowarmCount="0" timeDecay="true" /-->
<enableLazyFieldLoading>true</enableLazyFieldLoading>
<useFilterForSortedQuery>true</useFilterForSortedQuery>
<queryResultWindowSize>40</queryResultWindowSize>
<!-- 查询结果文档的最大缓存数 -->
<queryResultMaxDocsCached>10</queryResultMaxDocsCached>
<!-- 使用云搜索 -->
<useColdSearcher>false</useColdSearcher>
<maxWarmingSearchers>2</maxWarmingSearchers>
<HashDocSet maxSize="10000" loadFactor="0.75" />
</query>
<!-- HTTP 缓存,不输出header头 -->
<requestDispatcher handleSelect="true">
<requestParsers enableRemoteStreaming="true"
multipartUploadLimitInKB="2048000" formdataUploadLimitInKB="2048" />
<httpCaching never304="true" />
</requestDispatcher>
<requestHandler name="/select" class="solr.SearchHandler">
<lst name="defaults">
<str name="defType">edismax</str>
<str name="echoParams">explicit</str>
<str name="pf">namebak tags</str>
<str name="qf">namebak^10.0 tags^9</str>
<str name="mm">4<-1 8<60%</str>
<str name="bf">
sum(recip(ms(NOW,lastupdate),1,1,300),recip(ms(NOW,releasedate),1,0.1,100),div(sum(new,hot,jingdian),9))
</str>
</lst>
</requestHandler>
<!-- SolrClound 必须 -->
<requestHandler name="/get" class="solr.RealTimeGetHandler">
<lst name="defaults">
<str name="omitHeader">true</str>
<str name="wt">json</str>
<str name="indent">true</str>
</lst>
</requestHandler>
<requestHandler name="/admin/" class="solr.admin.AdminHandlers" />
<requestHandler name="/query" class="solr.SearchHandler">
<lst name="defaults">
<str name="defType">edismax</str>
<str name="echoParams">explicit</str>
<str name="wt">json</str>
<str name="indent">true</str>
<str name="df">namebak tags</str>
</lst>
</requestHandler>
<requestHandler name="/update" class="solr.UpdateRequestHandler">
<lst name="defaults">
<str name="stream.contentType">application/document</str>
</lst>
</requestHandler>
<!-- 字段分析接口,分词接口-->
<requestHandler name="/analysis/field" startup="lazy"
class="solr.FieldAnalysisRequestHandler" />
<requestHandler name="/analysis/document"
class="solr.DocumentAnalysisRequestHandler" startup="lazy" />
<requestHandler name="/replication" class="solr.ReplicationHandler">
<lst name="slave">
<str name="masterUrl">http://42.96.194.6:8088/solr/core_album/replication
</str>
<!--str name="pollInterval">00:01:00</str -->
<str name="compression">internal</str>
<str name="httpConnTimeout">500</str>
<str name="httpReadTimeout">10000</str>
<str name="httpBasicAuthUser">core_album</str>
<str name="httpBasicAuthPassword">core_album</str>
</lst>
</requestHandler>
<admin>
<defaultQuery>*:*</defaultQuery>
</admin>
</config>
相关推荐
### Solrconfig.xml 和 Schema.xml 说明 #### Solrconfig.xml 概述 Solrconfig.xml 是 Apache Solr 的核心配置文件之一,主要用于定义 Solr 实例如何处理文档的索引与查询请求。该文件中包含了多种配置项,用于...
其次,`schema.xml`和`solrconfig.xml`是Solr的核心配置文件。`schema.xml`定义了索引的字段类型和字段,以及这些字段的搜索和分析行为。例如,你可以在这里设置字段是否可被搜索,是否可被排序,以及使用哪种分词器...
solrconfig.xml 文件用于配置 Solr 的搜索引擎参数,而 schema.xml 文件用于配置 Solr 的索引结构。 Solr 服务配置说明 Solr 服务配置主要包括服务端口号、服务协议和服务超时时间等参数的配置。 Solr Admin 说明...
- **步骤说明**: 在从服务器的`solrconfig.xml`文件中添加ReplicationHandler配置,并设置主服务器的URL。 - **操作详情**: 添加以下配置,并将`http://localhost:80/solr`替换为主服务器的实际URL: ```xml ...
每个 Solr 核心都有自己的目录,其中包含 `conf` 文件夹,用于存储如 `schema.xml`(定义字段类型和字段)、`solrconfig.xml`(配置 Solr 的行为)等配置文件。可能还有 `data` 文件夹,用于存储索引数据。 为了...
5. **配置文件详解**:在压缩包中的 "solr-8.5.2" 文件夹下,你会找到一系列配置文件,如 `solrconfig.xml` 和 `schema.xml`。`solrconfig.xml` 定义了 Solr 的运行行为,包括数据导入、搜索处理链、请求处理器等;...
- **配置分词器**:按照`README.txt`中的说明,在`D:\lucene\solr\home\conf\schema.xml`中添加分词器配置。 - **导入分词数据**:将`D:\tools\javaTools\lucene\mmseg4j-1.8.5\data`下的所有文件复制到`D:\lucene\...
"使用说明.txt"文件很可能是指导用户如何配置和运行Solr-4.10.3,特别是如何集成中文分词器的步骤。这可能包括如何修改`solrconfig.xml`中的分析器设置,以及如何将分词器的jar文件放入Solr的lib目录。 在实际应用...
部署说明.txt文件应该包含了关于如何配置和使用这个定时更新功能的详细步骤。通常,配置过程会涉及以下几个方面: 1. **修改solrconfig.xml**:在Solr的配置文件中,你需要配置数据导入处理器(DataImportHandler)...
1. **配置solrconfig.xml**:首先,需要在Solr的配置文件`solrconfig.xml`中启用DataImportScheduler。添加以下代码段: ```xml <requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport....
在solrconfig.xml文件中添加IK分词器的配置,然后在schema.xml中指定分词器用于索引和查询。 4. **索引数据**:Solr支持多种方式导入数据,如CSV、JSON、XML等。使用Solr的DataImportHandler(DIH)可以方便地从...
- 在 `solrconfig.xml` 和 `schema.xml` 文件中进行相关设置。 - 为了支持中文搜索,推荐使用庖丁分词器。在 `schema.xml` 中定义字段类型: - 对于中文词组分词,可以配置 `fieldtype` 为 `text` 类型,并设置 `...
在`solrconfig.xml`文件中启用全量导入和增量导入请求处理器,以支持数据库的数据同步。 接着,在`data-config.xml`文件中配置数据源和文档实体,例如定义数据源类型为JdbcDataSource,指定数据库连接信息(如URL、...
核心的配置文件通常位于`server/solr/configsets`目录下,包括`schema.xml`(定义字段和字段类型)、`solrconfig.xml`(配置索引和查询行为)等。 7. **上传数据**:你可以使用Solr的HTTP API或者Solr Admin界面...
1. 配置`solrconfig.xml`:定义索引和查询行为。 2. 配置`schema.xml`:定义字段类型和字段信息,用于解析和存储数据。 3. 通过Solr管理界面或命令行工具加载数据。 4. 进行索引优化、查询测试等操作。 Solr的强大...
- **配置SolrConfig.xml**:在`conf`文件夹下,需要对`solrconfig.xml`文件进行修改,添加如下代码段: ```xml <str name="config">data-config.xml ``` 这段配置是为了启用Solr的数据导入处理功能,...
1. **配置文件**:如solrconfig.xml和schema.xml,它们分别定义了Solr服务器的行为和字段定义。通过查看和修改这些文件,读者可以学习如何定制Solr以满足特定需求。 2. **示例数据**:可能包括XML、CSV或JSON格式的...
3. **solr.rar**:这很可能是Solr的源码或配置文件,包含了Solr服务器的运行环境,可能包括Solr实例、配置文件(如solrconfig.xml和schema.xml)以及可能的示例数据。 4. **SolrWeb.rar**:这可能是一个包含Solr Web...