`

SolrCloud 4.3.1+Tomcat 7安装配置实践

    博客分类:
  • solr
 
阅读更多
我们使用Solr Replication可以实现Solr服务器的可用性,即使某一个索引副本由于磁盘介质故障或者误操作删除等,其他的多个复制副本仍然可以提供服务。如果只是单纯的基于Solr Replication技术,只能对一个索引进行管理维护,当索引数据达到一定规模,搜索的性能成了瓶颈,除了重新规划设计索引,实现逻辑划分以外,没有更好地方法实现查询服务器的可扩展性。
SolrCloud就是为了解决这个问题而提出的。SolrCloud通过ZooKeeper集群来进行协调,使一个索引(SolrCloud中叫做一个Collection)进行分片,各个分片可以分布在不同的物理节点上,而且,对于同一个Collection的多个分片(Shard)之间没有交集,亦即,多个物理分片组成一个完成的索引Collection。为了保证分片数据的可用性,SolrCloud自动支持Solr Replication,可以同时对分片进行复制,冗余存储。下面,我们基于Solr最新的4.3.1版本进行安装配置SolrCloud集群,通过实践来实现索引数据的分布存储和检索。
 
准备工作
 
  • 服务器信息
三台服务器:
[plain] view plaincopy
 
  1. 10.95.3.61          master  
  2. 10.95.3.62          slave1  
  3. 10.95.3.65          slave4  
  • ZooKeeper集群配置
安装ZooKeeper集群,在上面3分节点上分别安装,使用的版本是zookeeper-3.4.5。
首先,在master节点上配置zoo.cfg,内容如下所示:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ vi applications/zookeeper/zookeeper-3.4.5/conf/zoo.cfg  
  2. # The number of milliseconds of each tick  
  3. tickTime=2000  
  4. # The number of ticks that the initial  
  5. # synchronization phase can take  
  6. initLimit=10  
  7. # The number of ticks that can pass between  
  8. # sending a request and getting an acknowledgement  
  9. syncLimit=5  
  10. # the directory where the snapshot is stored.  
  11. # do not use /tmp for storage, /tmp here is just  
  12. # example sakes.  
  13. dataDir=/home/hadoop/applications/zookeeper/zookeeper-3.4.5/data  
  14. # the port at which the clients will connect  
  15. clientPort=2188  
  16.   
  17. dataLogDir=/home/hadoop/applications/zookeeper/zookeeper-3.4.5/data/logs  
  18.   
  19. server.1=master:4888:5888  
  20. server.2=slave1:4888:5888  
  21. server.3=slave4:4888:5888  
  22. #  
  23. # Be sure to read the maintenance section of the  
  24. # administrator guide before turning on autopurge.  
  25. #  
  26. # http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance  
  27. #  
  28. # The number of snapshots to retain in dataDir  
  29. #autopurge.snapRetainCount=3  
  30. # Purge task interval in hours  
  31. # Set to "0" to disable auto purge feature  
  32. #autopurge.purgeInterval=1  
然后,创建对应的数据存储目录后,可以直接将该配置复制到其他两个节点上:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ scp -r applications/zookeeper/zookeeper-3.4.5 hadoop@slave1:~/applications/zookeeper/  
  2. [hadoop@master ~]$ scp -r applications/zookeeper/zookeeper-3.4.5 hadoop@slave4:~/applications/zookeeper/  
启动ZooKeeper集群,在每个节点上分别启动ZooKeeper服务:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ cd applications/zookeeper/zookeeper-3.4.5/  
  2. [hadoop@master zookeeper-3.4.5]$ bin/zkServer.sh start  
  3.   
  4. [hadoop@slave1 ~]$ cd applications/zookeeper/zookeeper-3.4.5/  
  5. [hadoop@slave1 zookeeper-3.4.5]$ bin/zkServer.sh start  
  6.   
  7. [hadoop@slave4 ~]$ cd applications/zookeeper/zookeeper-3.4.5/  
  8. [hadoop@slave4 zookeeper-3.4.5]$ bin/zkServer.sh start  
可以查看ZooKeeper集群的状态,保证集群启动没有问题:
[plain] view plaincopy
 
  1. [hadoop@master zookeeper-3.4.5]$ bin/zkServer.sh status  
  2. JMX enabled by default  
  3. Using config: /home/hadoop/applications/zookeeper/zookeeper-3.4.5/bin/../conf/zoo.cfg  
  4. Mode: follower  
  5.   
  6. [hadoop@slave1 zookeeper-3.4.5]$ bin/zkServer.sh status  
  7. JMX enabled by default  
  8. Using config: /home/hadoop/applications/zookeeper/zookeeper-3.4.5/bin/../conf/zoo.cfg  
  9. Mode: follower  
  10.   
  11. [hadoop@slave4 zookeeper-3.4.5]$ bin/zkServer.sh status  
  12. JMX enabled by default  
  13. Using config: /home/hadoop/applications/zookeeper/zookeeper-3.4.5/bin/../conf/zoo.cfg  
  14. Mode: leader  
可以看到,slave4节点是ZooKeeper集群服务Leader。
  • SolrCloud相关目录
我们选择/home/hadoop/applications/solr/cloud目录存放Solr的库文件和配置文件,该目录下有lib和multicore两个子目录。
另外,还有一个存储索引的目录,设置为/home/hadoop/applications/storage/cloud/data。
 
SolrCloud配置
 
首先在一个节点上对SOLR进行配置,我们选择master节点。
1、SOLR基本配置
将下载的SOLR的压缩包解压缩,将solr-4.3.1\example\webapps\solr.war解开,将solr-4.3.1\example\webapps\solr\WEB-INF\lib和solr-4.3.1\example\lib\ext中的jar文件拷贝到solr-4.3.1\example\webapps\solr\WEB-INF\lib中,并将解开的solr目录改名为solr-cloud,然后传到服务器的Tomcat下的webapps目录下。
将solr-4.3.1\example\webapps\solr\WEB-INF\lib和solr-4.3.1\example\lib\ext下面的jar文件都拷贝到指定目录/home/hadoop/applications/solr/cloud/lib/中:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ ls /home/hadoop/applications/solr/cloud/lib/  
  2. commons-cli-1.2.jar           lucene-analyzers-common-4.3.1.jar    lucene-suggest-4.3.1.jar  
  3. commons-codec-1.7.jar         lucene-analyzers-kuromoji-4.3.1.jar  noggit-0.5.jar  
  4. commons-fileupload-1.2.1.jar  lucene-analyzers-phonetic-4.3.1.jar  org.restlet-2.1.1.jar  
  5. commons-io-2.1.jar            lucene-codecs-4.3.1.jar              org.restlet.ext.servlet-2.1.1.jar  
  6. commons-lang-2.6.jar          lucene-core-4.3.1.jar                slf4j-api-1.6.6.jar  
  7. guava-13.0.1.jar              lucene-grouping-4.3.1.jar            slf4j-log4j12-1.6.6.jar  
  8. httpclient-4.2.3.jar          lucene-highlighter-4.3.1.jar         solr-core-4.3.1.jar  
  9. httpcore-4.2.2.jar            lucene-memory-4.3.1.jar              solr-solrj-4.3.1.jar  
  10. httpmime-4.2.3.jar            lucene-misc-4.3.1.jar                spatial4j-0.3.jar  
  11. jcl-over-slf4j-1.6.6.jar      lucene-queries-4.3.1.jar             wstx-asl-3.2.7.jar  
  12. jul-to-slf4j-1.6.6.jar        lucene-queryparser-4.3.1.jar         zookeeper-3.4.5.jar  
  13. log4j-1.2.16.jar              lucene-spatial-4.3.1.jar  
目录/home/hadoop/applications/solr/cloud/multicore的结构,如图所示:
下面,我们对上面conf目录下的配置文件进行说明:
  • schema.xml文件
[html] view plaincopy
 
  1. <?xml version="1.0" ?>  
  2.   
  3. <schema name="example core two" version="1.1">  
  4.      <types>  
  5.           <fieldtype name="string" class="solr.StrField" omitNorms="true" />  
  6.           <fieldType name="long" class="solr.TrieLongField" />  
  7.           <fieldtype name="int" class="solr.IntField" />  
  8.           <fieldtype name="float" class="solr.FloatField" />  
  9.           <fieldType name="date" class="solr.TrieDateField" precisionStep="0" positionIncrementGap="0" />  
  10.      </types>  
  11.      <fields>  
  12.           <field name="id" type="long" indexed="true" stored="true" multiValued="false" required="true" />  
  13.           <field name="area" type="string" indexed="true" stored="false" multiValued="false" />  
  14.           <field name="building_type" type="int" indexed="true" stored="false" multiValued="false" />  
  15.           <field name="category" type="string" indexed="true" stored="false" multiValued="false" />  
  16.           <field name="temperature" type="int" indexed="true" stored="false" multiValued="false" />  
  17.           <field name="code" type="int" indexed="true" stored="false" multiValued="false" />  
  18.           <field name="latitude" type="float" indexed="true" stored="false" multiValued="false" />  
  19.           <field name="longitude" type="float" indexed="true" stored="false" multiValued="false" />  
  20.           <field name="when" type="date" indexed="true" stored="false" multiValued="false" />  
  21.           <field name="_version_" type="long" indexed="true" stored="true" />  
  22.      </fields>  
  23.      <uniqueKey>id</uniqueKey>  
  24.      <defaultSearchField>area</defaultSearchField>  
  25.      <solrQueryParser defaultOperator="OR" />  
  26. </schema>  
  • solrconfig.xml文件
[html] view plaincopy
 
  1. <?xml version="1.0" encoding="UTF-8" ?>  
  2.   
  3. <config>  
  4.      <luceneMatchVersion>LUCENE_43</luceneMatchVersion>  
  5.      <directoryFactory name="DirectoryFactory" class="${solr.directoryFactory:solr.StandardDirectoryFactory}" />  
  6.      <dataDir>${solr.shard.data.dir:}</dataDir>  
  7.      <schemaFactory class="ClassicIndexSchemaFactory" />  
  8.       
  9.      <updateHandler class="solr.DirectUpdateHandler2">  
  10.           <updateLog>  
  11.                <str name="dir">${solr.shard.data.dir:}</str>  
  12.           </updateLog>  
  13.      </updateHandler>  
  14.       
  15.      <!-- realtime get handler, guaranteed to return the latest stored fields of any document, without the need to commit or open a new searcher. The current implementation relies on the updateLog feature being enabled. -->  
  16.      <requestHandler name="/get" class="solr.RealTimeGetHandler">  
  17.           <lst name="defaults">  
  18.                <str name="omitHeader">true</str>  
  19.           </lst>  
  20.      </requestHandler>  
  21.      <requestHandler name="/replication" class="solr.ReplicationHandler" startup="lazy" />  
  22.      <requestDispatcher handleSelect="true">  
  23.           <requestParsers enableRemoteStreaming="false" multipartUploadLimitInKB="2048" formdataUploadLimitInKB="2048" />  
  24.      </requestDispatcher>  
  25.   
  26.      <requestHandler name="standard" class="solr.StandardRequestHandler" default="true" />  
  27.      <requestHandler name="/analysis/field" startup="lazy" class="solr.FieldAnalysisRequestHandler" />  
  28.      <requestHandler name="/update" class="solr.UpdateRequestHandler" />  
  29.      <requestHandler name="/update/csv" class="solr.CSVRequestHandler" startup="lazy">  
  30.           <lst name="defaults">  
  31.                <str name="separator">,</str>  
  32.                <str name="header">true</str>  
  33.                <str name="encapsulator">"</str>  
  34.           </lst>  
  35.           <updateLog>  
  36.                <str name="dir">${solr.shard.data.dir:}</str>  
  37.           </updateLog>  
  38.      </requestHandler>  
  39.      <requestHandler name="/admin/" class="org.apache.solr.handler.admin.AdminHandlers" />  
  40.      <requestHandler name="/admin/ping" class="solr.PingRequestHandler">  
  41.           <lst name="invariants">  
  42.                <str name="q">solrpingquery</str>  
  43.           </lst>  
  44.           <lst name="defaults">  
  45.                <str name="echoParams">all</str>  
  46.           </lst>  
  47.      </requestHandler>  
  48.       
  49.      <updateRequestProcessorChain name="sample">  
  50.           <processor class="solr.LogUpdateProcessorFactory" />  
  51.           <processor class="solr.DistributedUpdateProcessorFactory" />  
  52.           <processor class="solr.RunUpdateProcessorFactory" />  
  53.      </updateRequestProcessorChain>  
  54.   
  55.      <query>  
  56.           <maxBooleanClauses>1024</maxBooleanClauses>  
  57.           <filterCache class="solr.FastLRUCache" size="10240" initialSize="512" autowarmCount="0" />  
  58.           <queryResultCache class="solr.LRUCache" size="10240" initialSize="512" autowarmCount="0" />  
  59.           <documentCache class="solr.LRUCache" size="10240" initialSize="512" autowarmCount="0" />  
  60.           <enableLazyFieldLoading>true</enableLazyFieldLoading>  
  61.           <queryResultWindowSize>20</queryResultWindowSize>  
  62.           <queryResultMaxDocsCached>200</queryResultMaxDocsCached>  
  63.           <maxWarmingSearchers>2</maxWarmingSearchers>  
  64.      </query>  
  65.      <admin>  
  66.           <defaultQuery>solr</defaultQuery>  
  67.      </admin>  
  68. </config>  
  • solrcore.properties文件
[plain] view plaincopy
 
  1. solr.shard.data.dir=/home/hadoop/applications/storage/cloud/data  
属性solr.shard.data.dir在solrconfig.xml文件中北引用过,指定索引数据的存放位置。
  • solr.xml文件
该文件中指定了ZooKeeper的相关配置,已经Solr Core的配置内容:
[html] view plaincopy
 
  1. <?xml version="1.0" encoding="UTF-8" ?>  
  2.   
  3. <solr persistent="true">  
  4.   <cores defaultCoreName="collection1" host="${host:}" adminPath="/admin/cores" zkClientTimeout="${zkClientTimeout:15000}" hostPort="8888" hostContext="${hostContext:solr-cloud}">  
  5.   </cores>  
  6. </solr>  
注意:这里,我们并没有配置任何的core元素,这个等到整个配置安装完成之后,通过SOLR提供的REST接口,来实现Collection以及Shard的创建,从而来更新这些配置文件。
2、ZooKeeper管理监控配置文件
SolrCloud是通过ZooKeeper集群来保证配置文件的变更及时同步到各个节点上,所以,需要将配置文件上传到ZooKeeper集群中:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ java -classpath .:/home/hadoop/applications/solr/cloud/lib/* org.apache.solr.cloud.ZkCLI -cmd upconfig -zkhost master:2188,slave1:2188,slave4:2188 -confdir /home/hadoop/applications/solr/cloud/multicore/collection1/conf -confname myconf  
  2.   
  3. [hadoop@master ~]$ java -classpath .:/home/hadoop/applications/solr/cloud/lib/* org.apache.solr.cloud.ZkCLI -cmd linkconfig -collection collection1 -confname myconf -zkhost master:2188,slave1:2188,slave4:2188  
上传完成以后,我们检查一下ZooKeeper上的存储情况:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ cd applications/zookeeper/zookeeper-3.4.5/  
  2. [hadoop@master zookeeper-3.4.5]$ bin/zkCli.sh -server master:2188  
  3. ...  
  4. [zk: master:2188(CONNECTED) 0] ls /  
  5. [configs, collections, zookeeper]  
  6. [zk: master:2188(CONNECTED) 2] ls /configs  
  7. [myconf]  
  8. [zk: master:2188(CONNECTED) 3] ls /configs/myconf  
  9. [solrcore.properties, solrconfig.xml, schema.xml]  

3、Tomcat配置与启动
在Tomcat的启动脚本bin/catalina.sh中,增加如下配置:
[plain] view plaincopy
 
  1. JAVA_OPTS="-server -Xmx4096m -Xms1024m -verbose:gc -Xloggc:solr_gc.log -Dsolr.solr.home=/home/hadoop/applications/solr/cloud/multicore -DzkHost=master:2188,slave1:2188,slave4:2188"  
启动Tomcat服务器:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ cd servers/apache-tomcat-7.0.42  
  2. [hadoop@master apache-tomcat-7.0.42]$ bin/catalina.sh start  
可以查看日志,如下所示:
[plain] view plaincopy
 
  1. 八月 01, 2013 3:11:03 下午 org.apache.catalina.core.AprLifecycleListener init  
  2. INFO: The APR based Apache Tomcat Native library which allows optimal performance in production environments was not found on the java.library.path: :HADOOP_HOME/lib/native:/dw/snappy/lib:/usr/java/packages/lib/amd64:/usr/lib64:/lib64:/lib:/usr/lib  
  3. 八月 01, 2013 3:11:03 下午 org.apache.coyote.AbstractProtocol init  
  4. INFO: Initializing ProtocolHandler ["http-bio-8888"]  
  5. 八月 01, 2013 3:11:03 下午 org.apache.coyote.AbstractProtocol init  
  6. INFO: Initializing ProtocolHandler ["ajp-bio-8009"]  
  7. 八月 01, 2013 3:11:03 下午 org.apache.catalina.startup.Catalina load  
  8. INFO: Initialization processed in 1410 ms  
  9. 八月 01, 2013 3:11:03 下午 org.apache.catalina.core.StandardService startInternal  
  10. INFO: Starting service Catalina  
  11. 八月 01, 2013 3:11:03 下午 org.apache.catalina.core.StandardEngine startInternal  
  12. INFO: Starting Servlet Engine: Apache Tomcat/7.0.42  
  13. 八月 01, 2013 3:11:03 下午 org.apache.catalina.startup.HostConfig deployDirectory  
  14. INFO: Deploying web application directory /home/hadoop/servers/apache-tomcat-7.0.42/webapps/ROOT  
  15. 八月 01, 2013 3:11:04 下午 org.apache.catalina.startup.HostConfig deployDirectory  
  16. INFO: Deploying web application directory /home/hadoop/servers/apache-tomcat-7.0.42/webapps/host-manager  
  17. 八月 01, 2013 3:11:04 下午 org.apache.catalina.startup.HostConfig deployDirectory  
  18. INFO: Deploying web application directory /home/hadoop/servers/apache-tomcat-7.0.42/webapps/manager  
  19. 八月 01, 2013 3:11:04 下午 org.apache.catalina.startup.HostConfig deployDirectory  
  20. INFO: Deploying web application directory /home/hadoop/servers/apache-tomcat-7.0.42/webapps/examples  
  21. 八月 01, 2013 3:11:04 下午 org.apache.catalina.startup.HostConfig deployDirectory  
  22. INFO: Deploying web application directory /home/hadoop/servers/apache-tomcat-7.0.42/webapps/solr-cloud  
  23. 2013-08-01 15:11:05.369 [localhost-startStop-1] INFO  org.apache.solr.servlet.SolrDispatchFilter  – SolrDispatchFilter.init()  
  24. 2013-08-01 15:11:05.392 [localhost-startStop-1] INFO  org.apache.solr.core.SolrResourceLoader  – No /solr/home in JNDI  
  25. 2013-08-01 15:11:05.393 [localhost-startStop-1] INFO  org.apache.solr.core.SolrResourceLoader  – using system property solr.solr.home: /home/hadoop/applications/solr/cloud/multicore  
  26. 2013-08-01 15:11:05.402 [localhost-startStop-1] INFO  org.apache.solr.core.CoreContainer  – looking for solr config file: /home/hadoop/applications/solr/cloud/multicore/solr.xml  
  27. 2013-08-01 15:11:05.403 [localhost-startStop-1] INFO  org.apache.solr.core.CoreContainer  – New CoreContainer 1665441141  
  28. 2013-08-01 15:11:05.406 [localhost-startStop-1] INFO  org.apache.solr.core.CoreContainer  – Loading CoreContainer using Solr Home: '/home/hadoop/applications/solr/cloud/multicore/'  
  29. 2013-08-01 15:11:05.406 [localhost-startStop-1] INFO  org.apache.solr.core.SolrResourceLoader  – new SolrResourceLoader for directory: '/home/hadoop/applications/solr/cloud/multicore/'  
  30. 2013-08-01 15:11:05.616 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='adminHandler']  
  31. 2013-08-01 15:11:05.618 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/int[@name='coreLoadThreads']  
  32. 2013-08-01 15:11:05.620 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='coreRootDirectory']  
  33. 2013-08-01 15:11:05.621 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='distribUpdateConnTimeout']  
  34. 2013-08-01 15:11:05.622 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='distribUpdateSoTimeout']  
  35. 2013-08-01 15:11:05.624 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/str[@name='host']  
  36. 2013-08-01 15:11:05.626 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/str[@name='hostContext']  
  37. 2013-08-01 15:11:05.628 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='hostPort']  
  38. 2013-08-01 15:11:05.630 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='leaderVoteWait']  
  39. 2013-08-01 15:11:05.632 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='managementPath']  
  40. 2013-08-01 15:11:05.633 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='sharedLib']  
  41. 2013-08-01 15:11:05.635 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='shareSchema']  
  42. 2013-08-01 15:11:05.636 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/int[@name='transientCacheSize']  
  43. 2013-08-01 15:11:05.638 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='zkClientTimeout']  
  44. 2013-08-01 15:11:05.640 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='zkHost']  
  45. 2013-08-01 15:11:05.647 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/str[@name='class']  
  46. 2013-08-01 15:11:05.648 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/str[@name='enabled']  
  47. 2013-08-01 15:11:05.649 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/int[@name='size']  
  48. 2013-08-01 15:11:05.654 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/int[@name='threshold']  
  49. 2013-08-01 15:11:05.657 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/@coreLoadThreads  
  50. 2013-08-01 15:11:05.658 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/@sharedLib  
  51. 2013-08-01 15:11:05.659 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/@zkHost  
  52. 2013-08-01 15:11:05.661 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/@class  
  53. 2013-08-01 15:11:05.662 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/@enabled  
  54. 2013-08-01 15:11:05.663 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/@size  
  55. 2013-08-01 15:11:05.665 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/@threshold  
  56. 2013-08-01 15:11:05.666 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@adminHandler  
  57. 2013-08-01 15:11:05.668 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@distribUpdateConnTimeout  
  58. 2013-08-01 15:11:05.669 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@distribUpdateSoTimeout  
  59. 2013-08-01 15:11:05.672 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@host=${host:}  
  60. 2013-08-01 15:11:05.673 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@hostContext=${hostContext:solr-cloud}  
  61. 2013-08-01 15:11:05.674 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@hostPort=8888  
  62. 2013-08-01 15:11:05.676 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@leaderVoteWait  
  63. 2013-08-01 15:11:05.677 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@managementPath  
  64. 2013-08-01 15:11:05.679 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@shareSchema  
  65. 2013-08-01 15:11:05.680 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@transientCacheSize  
  66. 2013-08-01 15:11:05.681 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@zkClientTimeout=${zkClientTimeout:15000}  
  67. 2013-08-01 15:11:05.686 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/@class  
  68. 2013-08-01 15:11:05.692 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/@name  
  69. 2013-08-01 15:11:05.694 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/int[@connTimeout]  
  70. 2013-08-01 15:11:05.695 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/int[@socketTimeout]  
  71. 2013-08-01 15:11:05.699 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@defaultCoreName=collection1  
  72. 2013-08-01 15:11:05.700 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/@persistent=true  
  73. 2013-08-01 15:11:05.701 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@adminPath=/admin/cores  
  74. 2013-08-01 15:11:05.713 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='adminHandler']  
  75. 2013-08-01 15:11:05.714 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/int[@name='coreLoadThreads']  
  76. 2013-08-01 15:11:05.715 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='coreRootDirectory']  
  77. 2013-08-01 15:11:05.718 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='distribUpdateConnTimeout']  
  78. 2013-08-01 15:11:05.719 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='distribUpdateSoTimeout']  
  79. 2013-08-01 15:11:05.720 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/str[@name='host']  
  80. 2013-08-01 15:11:05.722 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/str[@name='hostContext']  
  81. 2013-08-01 15:11:05.723 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='hostPort']  
  82. 2013-08-01 15:11:05.724 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='leaderVoteWait']  
  83. 2013-08-01 15:11:05.727 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='managementPath']  
  84. 2013-08-01 15:11:05.728 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='sharedLib']  
  85. 2013-08-01 15:11:05.729 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/str[@name='shareSchema']  
  86. 2013-08-01 15:11:05.730 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/int[@name='transientCacheSize']  
  87. 2013-08-01 15:11:05.735 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='zkClientTimeout']  
  88. 2013-08-01 15:11:05.737 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/solrcloud/int[@name='zkHost']  
  89. 2013-08-01 15:11:05.740 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/str[@name='class']  
  90. 2013-08-01 15:11:05.747 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/str[@name='enabled']  
  91. 2013-08-01 15:11:05.749 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/int[@name='size']  
  92. 2013-08-01 15:11:05.752 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/int[@name='threshold']  
  93. 2013-08-01 15:11:05.755 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/@coreLoadThreads  
  94. 2013-08-01 15:11:05.756 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/@sharedLib  
  95. 2013-08-01 15:11:05.759 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/@zkHost  
  96. 2013-08-01 15:11:05.760 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/@class  
  97. 2013-08-01 15:11:05.761 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/@enabled  
  98. 2013-08-01 15:11:05.763 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/@size  
  99. 2013-08-01 15:11:05.764 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/logging/watcher/@threshold  
  100. 2013-08-01 15:11:05.765 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@adminHandler  
  101. 2013-08-01 15:11:05.768 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@distribUpdateConnTimeout  
  102. 2013-08-01 15:11:05.769 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@distribUpdateSoTimeout  
  103. 2013-08-01 15:11:05.770 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@host=${host:}  
  104. 2013-08-01 15:11:05.771 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@hostContext=${hostContext:solr-cloud}  
  105. 2013-08-01 15:11:05.772 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@hostPort=8888  
  106. 2013-08-01 15:11:05.774 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@leaderVoteWait  
  107. 2013-08-01 15:11:05.776 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@managementPath  
  108. 2013-08-01 15:11:05.777 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@shareSchema  
  109. 2013-08-01 15:11:05.778 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/@transientCacheSize  
  110. 2013-08-01 15:11:05.779 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@zkClientTimeout=${zkClientTimeout:15000}  
  111. 2013-08-01 15:11:05.780 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/@class  
  112. 2013-08-01 15:11:05.781 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/@name  
  113. 2013-08-01 15:11:05.783 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/int[@connTimeout]  
  114. 2013-08-01 15:11:05.785 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/shardHandlerFactory/int[@socketTimeout]  
  115. 2013-08-01 15:11:05.786 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@defaultCoreName=collection1  
  116. 2013-08-01 15:11:05.787 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/@persistent=true  
  117. 2013-08-01 15:11:05.788 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null solr/cores/@adminPath=/admin/cores  
  118. 2013-08-01 15:11:05.791 [localhost-startStop-1] DEBUG org.apache.solr.core.Config  – null missing optional solr/cores/shardHandlerFactory  
  119. 2013-08-01 15:11:05.799 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting socketTimeout to: 0  
  120. 2013-08-01 15:11:05.802 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting urlScheme to: http://  
  121. 2013-08-01 15:11:05.802 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting connTimeout to: 0  
  122. 2013-08-01 15:11:05.803 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting maxConnectionsPerHost to: 20  
  123. 2013-08-01 15:11:05.803 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting corePoolSize to: 0  
  124. 2013-08-01 15:11:05.804 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting maximumPoolSize to: 2147483647  
  125. 2013-08-01 15:11:05.805 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting maxThreadIdleTime to: 5  
  126. 2013-08-01 15:11:05.805 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting sizeOfQueue to: -1  
  127. 2013-08-01 15:11:05.806 [localhost-startStop-1] INFO  org.apache.solr.handler.component.HttpShardHandlerFactory  – Setting fairnessPolicy to: false  
  128. 2013-08-01 15:11:05.824 [localhost-startStop-1] INFO  org.apache.solr.client.solrj.impl.HttpClientUtil  – Creating new http client, config:maxConnectionsPerHost=20&maxConnections=10000&socketTimeout=0&connTimeout=0&retry=false  
  129. 2013-08-01 15:11:06.248 [localhost-startStop-1] INFO  org.apache.solr.core.CoreContainer  – Registering Log Listener  
  130. 2013-08-01 15:11:06.251 [localhost-startStop-1] INFO  org.apache.solr.core.CoreContainer  – Zookeeper client=master:2188,slave1:2188,slave4:2188  
  131. 2013-08-01 15:11:06.273 [localhost-startStop-1] INFO  org.apache.solr.client.solrj.impl.HttpClientUtil  – Creating new http client, config:maxConnections=500&maxConnectionsPerHost=16&socketTimeout=0&connTimeout=0  
  132. 2013-08-01 15:11:06.402 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.ConnectionManager  – Waiting for client to connect to ZooKeeper  
  133. 2013-08-01 15:11:06.461 [localhost-startStop-1-EventThread] INFO  org.apache.solr.common.cloud.ConnectionManager  – Watcher org.apache.solr.common.cloud.ConnectionManager@4b1707b4 name:ZooKeeperConnection Watcher:master:2188,slave1:2188,slave4:2188 got event WatchedEvent state:SyncConnected type:None path:null path:null type:None  
  134. 2013-08-01 15:11:06.462 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.ConnectionManager  – Client is connected to ZooKeeper  
  135. 2013-08-01 15:11:06.485 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /overseer/queue  
  136. 2013-08-01 15:11:06.523 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /overseer/collection-queue-work  
  137. 2013-08-01 15:11:06.546 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /live_nodes  
  138. 2013-08-01 15:11:06.555 [localhost-startStop-1] INFO  org.apache.solr.cloud.ZkController  – Register node as live in ZooKeeper:/live_nodes/10.95.3.61:8888_solr-cloud  
  139. 2013-08-01 15:11:06.562 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /live_nodes/10.95.3.61:8888_solr-cloud  
  140. 2013-08-01 15:11:06.578 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /overseer_elect/election  
  141. 2013-08-01 15:11:06.626 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /overseer_elect/leader  
  142. 2013-08-01 15:11:06.644 [localhost-startStop-1] INFO  org.apache.solr.cloud.Overseer  – Overseer (id=234248255751323650-10.95.3.61:8888_solr-cloud-n_0000000000) starting  
  143. 2013-08-01 15:11:06.667 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /overseer/queue-work  
  144. 2013-08-01 15:11:06.697 [Overseer-234248255751323650-10.95.3.61:8888_solr-cloud-n_0000000000] INFO  org.apache.solr.cloud.OverseerCollectionProcessor  – Process current queue of collection creations  
  145. 2013-08-01 15:11:06.698 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /clusterstate.json  
  146. 2013-08-01 15:11:06.711 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.SolrZkClient  – makePath: /aliases.json  
  147. 2013-08-01 15:11:06.720 [localhost-startStop-1] INFO  org.apache.solr.common.cloud.ZkStateReader  – Updating cluster state from ZooKeeper...  
  148. 2013-08-01 15:11:06.780 [Thread-2] INFO  org.apache.solr.cloud.Overseer  – Starting to work on the main queue  
  149. 2013-08-01 15:11:06.829 [localhost-startStop-1] INFO  org.apache.solr.servlet.SolrDispatchFilter  – user.dir=/home/hadoop/servers/apache-tomcat-7.0.42  
  150. 2013-08-01 15:11:06.829 [localhost-startStop-1] INFO  org.apache.solr.servlet.SolrDispatchFilter  – SolrDispatchFilter.init() done  
  151. 八月 01, 2013 3:11:06 下午 org.apache.catalina.startup.HostConfig deployDirectory  
  152. INFO: Deploying web application directory /home/hadoop/servers/apache-tomcat-7.0.42/webapps/docs  
  153. 八月 01, 2013 3:11:06 下午 org.apache.coyote.AbstractProtocol start  
  154. INFO: Starting ProtocolHandler ["http-bio-8888"]  
  155. 八月 01, 2013 3:11:06 下午 org.apache.coyote.AbstractProtocol start  
  156. INFO: Starting ProtocolHandler ["ajp-bio-8009"]  
  157. 八月 01, 2013 3:11:06 下午 org.apache.catalina.startup.Catalina start  
  158. INFO: Server startup in 3163 ms  
我开的是DEBUG模式,便于调试。
这时候,SolrCloud集群中只有一个活跃的节点,而且默认生成了一个collection1实例,这个实例实际上虚拟的,因为通过web界面无法访问http://master:8888/solr-cloud/,看不到任何有关SolrCloud的信息,如图所示:
4、同步数据和配置信息,启动其他节点
在另外两个节点上安装Tomcat和Solr服务器,只需要拷贝对应的目录即可:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ scp -r servers/ hadoop@slave1:~/  
  2. [hadoop@master ~]$ scp -r servers/ hadoop@slave4:~/  
  3.   
  4. [hadoop@master ~]$ scp -r applications/solr/cloud hadoop@slave1:~/applications/solr/  
  5. [hadoop@master ~]$ scp -r applications/solr/cloud hadoop@slave4:~/applications/solr/  
  6.   
  7. [hadoop@slave1 ~]$ mkdir -p applications/storage/cloud/data/  
  8. [hadoop@slave4 ~]$ mkdir -p applications/storage/cloud/data/  
启动其他Solr服务器节点:
[plain] view plaincopy
 
  1. [hadoop@slave1 ~]$ cd servers/apache-tomcat-7.0.42  
  2. [hadoop@slave1 apache-tomcat-7.0.42]$ bin/catalina.sh start  
  3.   
  4. [hadoop@slave4 ~]$ cd servers/apache-tomcat-7.0.42  
  5. [hadoop@slave4 apache-tomcat-7.0.42]$ bin/catalina.sh start  
查看ZooKeeper集群中数据状态:
[plain] view plaincopy
 
  1. [zk: master:2188(CONNECTED) 3] ls /live_nodes  
  2. [10.95.3.65:8888_solr-cloud, 10.95.3.61:8888_solr-cloud, 10.95.3.62:8888_solr-cloud]  
这时,已经存在3个活跃的节点了,但是SolrCloud集群并没有更多信息,访问http://master:8888/solr-cloud/后,同上面的图是一样的,没有SolrCloud相关数据。
5、创建Collection、Shard和Replication
  • 创建Collection及初始Shard
直接通过REST接口来创建Collection,如下所示:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ curl 'http://master:8888/solr-cloud/admin/collections?action=CREATE&name=mycollection&numShards=3&replicationFactor=1'  
  2. <?xml version="1.0" encoding="UTF-8"?>  
  3. <response>  
  4. <lst name="responseHeader"><int name="status">0</int><int name="QTime">4103</int></lst><lst name="success"><lst><lst name="responseHeader"><int name="status">0</int><int name="QTime">3367</int></lst><str name="core">mycollection_shard2_replica1</str><str name="saved">/home/hadoop/applications/solr/cloud/multicore/solr.xml</str></lst><lst><lst name="responseHeader"><int name="status">0</int><int name="QTime">3280</int></lst><str name="core">mycollection_shard1_replica1</str><str name="saved">/home/hadoop/applications/solr/cloud/multicore/solr.xml</str></lst><lst><lst name="responseHeader"><int name="status">0</int><int name="QTime">3690</int></lst><str name="core">mycollection_shard3_replica1</str><str name="saved">/home/hadoop/applications/solr/cloud/multicore/solr.xml</str></lst></lst>  
  5. </response>  
上面链接中的几个参数的含义,说明如下:
[plain] view plaincopy
 
  1. name                   待创建Collection的名称  
  2. numShards           分片的数量  
  3. replicationFactor   复制副本的数量  
执行上述操作如果没有异常,已经创建了一个Collection,名称为mycollection,而且每个节点上存在一个分片。这时,也可以查看ZooKeeper中状态:
[plain] view plaincopy
 
  1. [zk: master:2188(CONNECTED) 5] ls /collections  
  2. [mycollection, collection1]  
  3. [zk: master:2188(CONNECTED) 6] ls /collections/mycollection  
  4. [leader_elect, leaders]  
可以通过Web管理页面,访问http://master:8888/solr-cloud/#/~cloud,查看SolrCloud集群的分片信息,如图所示:

由上图可以看到,对应节点上SOLR分片的对应关系:
[plain] view plaincopy
 
  1. shard3     10.95.3.61          master  
  2. shard1     10.95.3.62          slave1  
  3. shard2     10.95.3.65          slave4  
实际上,我们从master节点可以看到,SOLR的配置文件内容,已经发生了变化,如下所示:
[html] view plaincopy
 
  1. [hadoop@master ~]$ cat applications/solr/cloud/multicore/solr.xml  
  2. <?xml version="1.0" encoding="UTF-8" ?>  
  3. <solr persistent="true">  
  4.   <cores defaultCoreName="collection1" host="${host:}" adminPath="/admin/cores" zkClientTimeout="${zkClientTimeout:15000}" hostPort="8888" hostContext="${hostContext:solr-cloud}">  
  5.     <core loadOnStartup="true" shard="shard3" instanceDir="mycollection_shard3_replica1/" transient="false" name="mycollection_shard3_replica1" collection="mycollection"/>  
  6.   </cores>  
  7. </solr>  
  • 创建Replication
下面对已经创建的初始分片进行复制。
shard1已经在slave1上,我们复制分片到master和slave4上,执行如下命令:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ curl 'http://master:8888/solr-cloud/admin/cores?action=CREATE&collection=mycollection&name=mycollection_shard1_replica_2&shard=shard1'  
  2. <?xml version="1.0" encoding="UTF-8"?>  
  3. <response>  
  4. <lst name="responseHeader"><int name="status">0</int><int name="QTime">1485</int></lst><str name="core">mycollection_shard1_replica_2</str><str name="saved">/home/hadoop/applications/solr/cloud/multicore/solr.xml</str>  
  5. </response>  
  6.   
  7. [hadoop@master ~]$ curl 'http://master:8888/solr-cloud/admin/cores?action=CREATE&collection=mycollection&name=mycollection_shard1_replica_3&shard=shard1'  
  8. <?xml version="1.0" encoding="UTF-8"?>  
  9. <response>  
  10. <lst name="responseHeader"><int name="status">0</int><int name="QTime">2543</int></lst><str name="core">mycollection_shard1_replica_3</str><str name="saved">/home/hadoop/applications/solr/cloud/multicore/solr.xml</str>  
  11. </response>  
  12.   
  13. [hadoop@slave4 ~]$ curl 'http://slave4:8888/solr-cloud/admin/cores?action=CREATE&collection=mycollection&name=mycollection_shard1_replica_4&shard=shard1'  
  14. <?xml version="1.0" encoding="UTF-8"?>  
  15. <response>  
  16. <lst name="responseHeader"><int name="status">0</int><int name="QTime">2405</int></lst><str name="core">mycollection_shard1_replica_4</str><str name="saved">/home/hadoop/applications/solr/cloud/multicore/solr.xml</str>  
  17. </response>  
最后的结果是,slave1上的shard1,在master节点上有2个副本,名称为mycollection_shard1_replica_2和mycollection_shard1_replica_3,在slave4节点上有一个副本,名称为mycollection_shard1_replica_4.
也可以通过查看master和slave4上的目录变化,如下所示:
[plain] view plaincopy
 
  1. [hadoop@master ~]$ ll applications/solr/cloud/multicore/  
  2. 总用量 24  
  3. drwxrwxr-x. 4 hadoop hadoop 4096 8月   1 09:58 collection1  
  4. drwxrwxr-x. 3 hadoop hadoop 4096 8月   1 15:41 mycollection_shard1_replica_2  
  5. drwxrwxr-x. 3 hadoop hadoop 4096 8月   1 15:42 mycollection_shard1_replica_3  
  6. drwxrwxr-x. 3 hadoop hadoop 4096 8月   1 15:23 mycollection_shard3_replica1  
  7. -rw-rw-r--. 1 hadoop hadoop  784 8月   1 15:42 solr.xml  
  8. -rw-rw-r--. 1 hadoop hadoop 1004 8月   1 10:02 zoo.cfg  
  9.   
  10. [hadoop@slave4 ~]$ ll applications/solr/cloud/multicore/  
  11. 总用量 20  
  12. drwxrwxr-x. 4 hadoop hadoop 4096 8月   1 14:53 collection1  
  13. drwxrwxr-x. 3 hadoop hadoop 4096 8月   1 15:44 mycollection_shard1_replica_4  
  14. drwxrwxr-x. 3 hadoop hadoop 4096 8月   1 15:23 mycollection_shard2_replica1  
  15. -rw-rw-r--. 1 hadoop hadoop  610 8月   1 15:44 solr.xml  
  16. -rw-rw-r--. 1 hadoop hadoop 1004 8月   1 15:08 zoo.cfg  
其中,mycollection_shard3_replica1和mycollection_shard2_replica1都是创建Collection的时候自动生成的分片,也就是第一个副本。
通过Web界面,可以更加直观地看到shard1的情况,如图所示:

我们再次从master节点可以看到,SOLR的配置文件内容,又发生了变化,如下所示:
[html] view plaincopy
 
  1. [hadoop@master ~]$ cat applications/solr/cloud/multicore/solr.xml  
  2. <?xml version="1.0" encoding="UTF-8" ?>  
  3. <solr persistent="true">  
  4.   <cores defaultCoreName="collection1" host="${host:}" adminPath="/admin/cores" zkClientTimeout="${zkClientTimeout:15000}" hostPort="8888" hostContext="${hostContext:solr-cloud}">  
  5.     <core loadOnStartup="true" shard="shard3" instanceDir="mycollection_shard3_replica1/" transient="false" name="mycollection_shard3_replica1" collection="mycollection"/>  
  6.     <core loadOnStartup="true" shard="shard1" instanceDir="mycollection_shard1_replica_2/" transient="false" name="mycollection_shard1_replica_2" collection="mycollection"/>  
  7.     <core loadOnStartup="true" shard="shard1" instanceDir="mycollection_shard1_replica_3/" transient="false" name="mycollection_shard1_replica_3" collection="mycollection"/>  
  8.   </cores>  
  9. </solr>  
到此为止,我们已经基于3个物理节点,配置完成了SolrCloud集群。
 
索引数据
 
我们根据前面定义的schema.xml,自己构造了一个数据集,代码如下所示:
[java] view plaincopy
 
  1. package org.shirdrn.solr.data;  
  2.   
  3. import java.io.BufferedWriter;  
  4. import java.io.FileOutputStream;  
  5. import java.io.IOException;  
  6. import java.io.OutputStreamWriter;  
  7. import java.text.DateFormat;  
  8. import java.text.SimpleDateFormat;  
  9. import java.util.Date;  
  10. import java.util.Random;  
  11.   
  12. public class BuildingSampleGenerator {  
  13.   
  14.      private final DateFormat df = new SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSS'Z'");  
  15.      private Random random = new Random();  
  16.       
  17.      static String[] areas = {  
  18.           "北京""上海""深圳""广州""天津""重庆","成都",  
  19.           "银川""沈阳""大连""吉林""郑州""徐州""兰州",  
  20.           "东京""纽约""贵州""长春""大连""武汉","南京",  
  21.           "海口""太原""济南""日照""菏泽""包头""松原"  
  22.      };  
  23.       
  24.      long pre = 0L;  
  25.      long current = 0L;  
  26.      public synchronized long genId() {  
  27.           current = System.nanoTime();  
  28.           if(current == pre) {  
  29.                try {  
  30.                     Thread.sleep(01);  
  31.                } catch (InterruptedException e) {  
  32.                     e.printStackTrace();  
  33.                }  
  34.                current = System.nanoTime();  
  35.                pre = current;  
  36.           }  
  37.           return current;  
  38.      }  
  39.       
  40.      public String genArea() {  
  41.           return areas[random.nextInt(areas.length)];  
  42.      }  
  43.       
  44.      private int maxLatitude = 90;  
  45.      private int maxLongitude = 180;  
  46.       
  47.      public Coordinate genCoordinate() {  
  48.           int beforeDot = random.nextInt(maxLatitude);  
  49.           double afterDot = random.nextDouble();  
  50.           double lat = beforeDot + afterDot;  
  51.            
  52.           beforeDot = random.nextInt(maxLongitude);  
  53.           afterDot = random.nextDouble();  
  54.           double lon = beforeDot + afterDot;  
  55.            
  56.           return new Coordinate(lat, lon);  
  57.      }  
  58.       
  59.      private Random random1 = new Random(System.currentTimeMillis());  
  60.      private Random random2 = new Random(2 * System.currentTimeMillis());  
  61.      public int genFloors() {  
  62.           return 1 + random1.nextInt(50) + random2.nextInt(50);  
  63.      }  
  64.       
  65.      public class Coordinate {  
  66.            
  67.           double latitude;  
  68.           double longitude;  
  69.            
  70.           public Coordinate() {  
  71.                super();  
  72.           }  
  73.            
  74.           public Coordinate(double latitude, double longitude) {  
  75.                super();  
  76.                this.latitude = latitude;  
  77.                this.longitude = longitude;  
  78.           }  
  79.   
  80.           public double getLatitude() {  
  81.                return latitude;  
  82.           }  
  83.   
  84.           public double getLongitude() {  
  85.                return longitude;  
  86.           }  
  87.      }  
  88.       
  89.       
  90.      static int[] signs = {-11};  
  91.      public int genTemperature() {  
  92.           return signs[random.nextInt(2)] * random.nextInt(81);  
  93.      }  
  94.       
  95.      static String[] codes = {"A""B""C""D""E""F""G""H""I",  
  96.           "J""K""L""M""N""O""P""Q""R""S""T""U""V",  
  97.           "W""X""Y""Z"};  
  98.      public String genCode() {  
  99.           return codes[random.nextInt(codes.length)];  
  100.      }  
  101.       
  102.      static int[] types = {0123};  
  103.      public int genBuildingType() {  
  104.           return types[random.nextInt(types.length)];  
  105.      }  
  106.       
  107.      static String[] categories = {  
  108.           "办公建筑""教育建筑""商业建筑""文教建筑""医卫建筑",  
  109.           "住宅""宿舍""公寓""工业建筑"};  
  110.      public String genBuildingCategory() {  
  111.           return categories[random.nextInt(categories.length)];  
  112.      }  
  113.       
  114.      public void generate(String file, int count) throws IOException {  
  115.           BufferedWriter w = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(file), "UTF-8"));  
  116.           w.write("id,area,building_type,category,temperature,code,latitude,longitude,when");  
  117.           w.newLine();  
  118.            
  119.            
  120.           for(int i=0; i<count; i++) {  
  121.                String when = df.format(new Date());  
  122.                 
  123.                StringBuffer sb = new StringBuffer();  
  124.                sb.append(genId()).append(",")  
  125.                     .append("\"").append(genArea()).append("\"").append(",")  
  126.                     .append(genBuildingType()).append(",")  
  127.                     .append("\"").append(genBuildingCategory()).append("\"").append(",")  
  128.                     .append(genTemperature()).append(",")  
  129.                     .append(genCode()).append(",");  
  130.                Coordinate coord = genCoordinate();  
  131.                sb.append(coord.latitude).append(",")  
  132.                     .append(coord.longitude).append(",")  
  133.                     .append("\"").append(when).append("\"");  
  134.                w.write(sb.toString());  
  135.                w.newLine();  
  136.           }  
  137.           w.close();  
  138.           System.out.println("Finished: file=" + file);  
  139.      }  
  140.       
  141.      public static void main(String[] args) throws Exception {  
  142.           BuildingSampleGenerator gen = new BuildingSampleGenerator();  
  143.           String file = "E:\\Develop\\eclipse-jee-kepler\\workspace\\solr-data\\building_files";  
  144.           for(int i=0; i<=9; i++) {  
  145.                String f = new String(file + "_100w_0" + i + ".csv");  
  146.                gen.generate(f, 5000000);  
  147.           }  
  148.      }  
  149.   
  150. }  
生成的文件,如下所示:
[plain] view plaincopy
 
  1. [hadoop@master solr-data]$ ll building_files_100w*  
  2. -rw-rw-r--. 1 hadoop hadoop 109025853 7月  26 14:05 building_files_100w_00.csv  
  3. -rw-rw-r--. 1 hadoop hadoop 108015504 7月  26 10:53 building_files_100w_01.csv  
  4. -rw-rw-r--. 1 hadoop hadoop 108022184 7月  26 11:00 building_files_100w_02.csv  
  5. -rw-rw-r--. 1 hadoop hadoop 108016854 7月  26 11:00 building_files_100w_03.csv  
  6. -rw-rw-r--. 1 hadoop hadoop 108021750 7月  26 11:00 building_files_100w_04.csv  
  7. -rw-rw-r--. 1 hadoop hadoop 108017496 7月  26 11:00 building_files_100w_05.csv  
  8. -rw-rw-r--. 1 hadoop hadoop 108016193 7月  26 11:00 building_files_100w_06.csv  
  9. -rw-rw-r--. 1 hadoop hadoop 108023537 7月  26 11:00 building_files_100w_07.csv  
  10. -rw-rw-r--. 1 hadoop hadoop 108014684 7月  26 11:00 building_files_100w_08.csv  
  11. -rw-rw-r--. 1 hadoop hadoop 108022044 7月  26 11:00 building_files_100w_09.csv  
数据文件格式如下:
[plain] view plaincopy
 
  1. [hadoop@master solr-data]$ head building_files_100w_00.csv  
  2. id,area,building_type,category,temperature,code,latitude,longitude,when  
  3. 18332617097417,"广州",2,"医卫建筑",61,N,5.160762478343409,62.92919119315037,"2013-07-26T14:05:55.832Z"  
  4. 18332617752331,"成都",1,"教育建筑",10,Q,77.34792453477195,72.59812030045762,"2013-07-26T14:05:55.833Z"  
  5. 18332617815833,"大连",0,"教育建筑",18,T,81.47569061530493,0.2177194388096203,"2013-07-26T14:05:55.833Z"  
  6. 18332617903711,"广州",0,"办公建筑",31,D,51.85825084513671,13.60710950097155,"2013-07-26T14:05:55.833Z"  
  7. 18332617958555,"深圳",3,"商业建筑",5,H,22.181374031472675,119.76001810254823,"2013-07-26T14:05:55.833Z"  
  8. 18332618020454,"济南",3,"公寓",-65,L,84.49607030736806,29.93095171443135,"2013-07-26T14:05:55.834Z"  
  9. 18332618075939,"北京",2,"住宅",-29,J,86.61660177436184,39.20847527640485,"2013-07-26T14:05:55.834Z"  
  10. 18332618130141,"菏泽",0,"医卫建筑",24,J,70.57574551258345,121.21977908377244,"2013-07-26T14:05:55.834Z"  
  11. 18332618184343,"徐州",2,"办公建筑",31,W,0.10129771041097524,153.40533210345387,"2013-07-26T14:05:55.834Z"  
我们向已经搭建好的SolrCloud集群,执行索引数据的操作。这里,实现了一个简易的客户端,代码如下所示:
[java] view plaincopy
 
  1. package org.shirdrn.solr.indexing;  
  2.   
  3. import java.io.IOException;  
  4. import java.net.MalformedURLException;  
  5. import java.text.DateFormat;  
  6. import java.text.SimpleDateFormat;  
  7. import java.util.Date;  
  8.   
  9. import org.apache.solr.client.solrj.SolrServerException;  
  10. import org.apache.solr.client.solrj.impl.CloudSolrServer;  
  11. import org.apache.solr.common.SolrInputDocument;  
  12. import org.shirdrn.solr.data.BuildingSampleGenerator;  
  13. import org.shirdrn.solr.data.BuildingSampleGenerator.Coordinate;  
  14.   
  15. public class CloudSolrClient {  
  16.   
  17.      private CloudSolrServer cloudSolrServer;  
  18.   
  19.      public synchronized void open(final String zkHost, final String  defaultCollection,  
  20.                int  zkClientTimeout, final int zkConnectTimeout) {  
  21.           if (cloudSolrServer == null) {  
  22.                try {  
  23.                     cloudSolrServer = new CloudSolrServer(zkHost);  
  24.                     cloudSolrServer.setDefaultCollection(defaultCollection);  
  25.                     cloudSolrServer.setZkClientTimeout(zkClientTimeout);  
  26.                     cloudSolrServer.setZkConnectTimeout(zkConnectTimeout);  
  27.                } catch (MalformedURLException e) {  
  28.                     System.out  
  29.                               .println("The URL of zkHost is not correct!! Its form must as below:\n zkHost:port");  
  30.                     e.printStackTrace();  
  31.                } catch (Exception e) {  
  32.                     e.printStackTrace();  
  33.                }  
  34.           }  
  35.      }  
  36.   
  37.      public void addDoc(long id, String area, int buildingType, String category,  
  38.                int temperature, String code, double latitude, double longitude, String when) {  
  39.           try {  
  40.                SolrInputDocument doc = new SolrInputDocument();  
  41.                doc.addField("id", id);  
  42.                doc.addField("area", area);  
  43.                doc.addField("building_type", buildingType);  
  44.                doc.addField("category", category);  
  45.                doc.addField("temperature", temperature);  
  46.                doc.addField("code", code);  
  47.                doc.addField("latitude", latitude);  
  48.                doc.addField("longitude", longitude);  
  49.                doc.addField("when", when);  
  50.                cloudSolrServer.add(doc);  
  51.                cloudSolrServer.commit();  
  52.           } catch (SolrServerException e) {  
  53.                System.err.println("Add docs Exception !!!");  
  54.                e.printStackTrace();  
  55.           } catch (IOException e) {  
  56.                e.printStackTrace();  
  57.           } catch (Exception e) {  
  58.                System.err.println("Unknowned Exception!!!!!");  
  59.                e.printStackTrace();  
  60.           }  
  61.   
  62.      }  
  63.   
  64.      public static void main(String[] args) {  
  65.           final String zkHost = "master:2188";           
  66.           final String  defaultCollection = "mycollection";  
  67.           final int  zkClientTimeout = 20000;  
  68.           final int zkConnectTimeout = 1000;  
  69.            
  70.           CloudSolrClient client = new CloudSolrClient();  
  71.           client.open(zkHost, defaultCollection, zkClientTimeout, zkConnectTimeout);  
  72.            
  73.           BuildingSampleGenerator gen = new BuildingSampleGenerator();  
  74.           final DateFormat df = new SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSS'Z'");  
  75.            
  76.           for(int i = 0; i < 10000; i++) {  
  77.                long id = gen.genId();  
  78.                String area = gen.genArea();  
  79.                int buildingType = gen.genBuildingType();  
  80.                String category = gen.genBuildingCategory();  
  81.                int temperature = gen.genTemperature();  
  82.                String code = gen.genCode();  
  83.                Coordinate coord = gen.genCoordinate();  
  84.                double latitude = coord.getLatitude();  
  85.                double longitude = coord.getLongitude();  
  86.                String when = df.format(new Date());  
  87.                client.addDoc(id, area, buildingType, category, temperature, code, latitude, longitude, when);  
  88.           }  
  89.            
  90.      }  
  91.   
  92. }  
这样,可以查看SolrCloud管理页面,或者直接登录到服务器上,能够看到对应索引数据分片的情况,比较均匀地分布到各个Shard节点上。
当然,也可以从Web管理页面上来管理各个分片的副本数据,比如某个分片具有太多的副本,通过页面上的删除掉(unload)该副本,实际该副本的元数据信息被从ZooKeeper集群维护的信息中删除,在具体的节点上的副本数据并没有删除,而只是处于离线状态,不能提供服务。
 
搜索数据
 
我们可以执行搜索,执行如下搜索条件:
[plain] view plaincopy
 
  1. http://master:8888/solr-cloud/mycollection/select?q=北京 纽约&fl=*&fq=category:公寓&fq=building_type:2&start=0&rows=10  
搜索结果,如下所示:
[html] view plaincopy
 
  1. <response>  
  2.     <lst name="responseHeader">  
  3.         <int name="status">0</int>  
  4.         <int name="QTime">570</int>  
  5.     </lst>  
  6.     <result name="response" numFound="201568" start="0" maxScore="1.5322487">  
  7.         <doc>  
  8.             <long name="id">37109751480918</long>  
  9.             <long name="_version_">1442164237143113728</long>  
  10.         </doc>  
  11.         <doc>  
  12.             <long name="id">37126929150371</long>  
  13.             <long name="_version_">1442164255154503680</long>  
  14.         </doc>  
  15.         <doc>  
  16.             <long name="id">37445266827945</long>  
  17.             <long name="_version_">1442164588949798912</long>  
  18.         </doc>  
  19.         <doc>  
  20.             <long name="id">37611390043867</long>  
  21.             <long name="_version_">1442164763138195456</long>  
  22.         </doc>  
  23.         <doc>  
  24.             <long name="id">37892268870281</long>  
  25.             <long name="_version_">1442165057653833728</long>  
  26.         </doc>  
  27.         <doc>  
  28.             <long name="id">89820941817153</long>  
  29.             <long name="_version_">1442219517734289408</long>  
  30.         </doc>  
  31.         <doc>  
  32.             <long name="id">89825667635450</long>  
  33.             <long name="_version_">1442219522665742336</long>  
  34.         </doc>  
  35.         <doc>  
  36.             <long name="id">89830029550692</long>  
  37.             <long name="_version_">1442219527207124993</long>  
  38.         </doc>  
  39.         <doc>  
  40.             <long name="id">93932235463589</long>  
  41.             <long name="_version_">1442223828610580480</long>  
  42.         </doc>  
  43.         <doc>  
  44.             <long name="id">93938975733467</long>  
  45.             <long name="_version_">1442223835684274177</long>  
  46.         </doc>  
  47.     </result>  
  48. </response>  
可以查看对应的日志,示例如下所示:
[plain] view plaincopy
 
  1. 2013-08-05 18:38:26.814 [http-bio-8888-exec-228] INFO  org.apache.solr.core.SolrCore  – [mycollection_shard1_0_replica2] webapp=/solr-cloud path=/select params={NOW=1375699145633&shard.url=10.95.3.62:8888/solr-cloud/mycollection_shard1_0_replica1/|10.95.3.61:8888/solr-cloud/mycollection_shard1_0_replica3/&fl=id,score&start=0&q=北京+纽约&distrib=false&wt=javabin&isShard=true&fsv=true&fq=category:公寓&fq=building_type:2&version=2&rows=10} hits=41529 status=0 QTime=102  
  2.   
  3. 2013-08-05 18:39:06.203 [http-bio-8888-exec-507] INFO  org.apache.solr.core.SolrCore  – [mycollection_shard3_replica1] webapp=/solr-cloud path=/select params={fl=*&start=0&q=北京+纽约&fq=category:公寓&fq=building_type:2&rows=10} hits=201568 status=0 QTime=570  
 

相关问题
 
1、我在进行Collection的创建的时候,当前有4个节点,在ZooKeeper集群中注册,执行如下命令:
[plain] view plaincopy
 
  1. [hadoop@slave1 multicore]$ curl 'http://slave1:8888/solr-cloud/admin/collections?action=CREATE&name=tinycollection&numShards=2&replicationFactor=3'  
出现异常:
[html] view plaincopy
 
  1. <?xml version="1.0" encoding="UTF-8"?>  
  2. <response>  
  3.      <lst name="responseHeader">  
  4.           <int name="status">400</int>  
  5.           <int name="QTime">81</int>  
  6.      </lst>  
  7.      <str name="Operation createcollection caused exception:">org.apache.solr.common.SolrException:org.apache.solr.common.SolrException: Cannot create collection tinycollection. Value of maxShardsPerNode is 1, and the number of live nodes is 4. This allows a maximum of 4 to be created. Value of numShards is 2 and value of replicationFactor is 3. This requires 6 shards to be created (higher than the allowed number)</str>  
  8.      <lst name="exception">  
  9.           <str name="msg">Cannot create collection tinycollection. Value of maxShardsPerNode is 1, and the number of live nodes is 4. This allows a maximum of 4 to be created. Value of numShards is 2 and value of replicationFactor is 3. This requires 6 shards to be created (higher than the allowed number)</str>  
  10.           <int name="rspCode">400</int>  
  11.      </lst>  
  12.      <lst name="error">  
  13.           <str name="msg">Cannot create collection tinycollection. Value of maxShardsPerNode is 1, and the number of live nodes is 4. This allows a maximum of 4 to be created. Value of numShards is 2 and value of replicationFactor is 3. This requires 6 shards to be created (higher than the allowed number)</str>  
  14.           <int name="code">400</int>  
  15.      </lst>  
  16. </response>  
根据上面异常信息可知,当前有4个节点可用,但是我在创建Collection的时候,指定两个Shard,同时复制因子是3,所以最低要求,需要6个节点。所以,可以减少复制因子,例如replicationFactor=2,表示一共存在两个副本(Leader分片和另一个副本),然后再执行创建Collection的操作就不会报错了。

 

原文地址:http://blog.csdn.net/shirdrn/article/details/9718387

分享到:
评论

相关推荐

    柚子美发小程序V4.3.1+分销插件V1.0.1.txt

    柚子美发小程序V4.3.1+分销插件V1.0.1

    jquery.jqGrid-4.3.1+jquery-ui-1.8.17.rar

    本文将围绕"jquery.jqGrid-4.3.1+jquery-ui-1.8.17.rar"这一压缩包中的两个主要组件进行深入探讨。 首先,jQuery.jqGrid 4.3.1是一个功能强大的表格展示和管理工具,适用于创建交互式的数据网格。这个版本提供了...

    mayavi-4.3.1+vtk510-cp27-none-win32

    mayavi-4.3.1+vtk510-cp27-none-win32

    ffmpeg4.3.1+msys.rar

    这个压缩包 "ffmpeg4.3.1+msys.rar" 包含了 FFmpeg 的最新稳定版本 4.3.1,以及 msys2 环境,这使得在 Windows 操作系统上运行 FFmpeg 变得更加方便。msys2 是一个轻量级的 Unix-like 环境,它为 Windows 提供了兼容...

    mayavi-4.3.1+vtk510-cp27-none-win_amd64

    mayavi-4.3.1+vtk510-cp27-none-win_amd64

    Apache+Tomcat集群、优化配置

    安装过程可以参考其他相关文档,如“Linux下Tomcat服务的配置”。安装完成后,设置好JAVA_HOME环境变量,并确认Tomcat可以启动。 ###### 4.2.2 安装 Apache 1. **上传文件**:将Apache的安装文件(例如 httpd-...

    Dubbo + SpringMVC 4.3.1 + Hessian 注解方式Demo工程源码

    整合 Dubbo + SpringMvc 4.3.1 的服务器maven工程样例,使用注解方式定义服务及IOC装配,采用Hessian协议传输 三个工程,在 cnetAdmin 和 cnetBlu 中,要引用 cnetCommon 工程。

    专业软件卸载工具 Revo Uninstaller Pro 4.3.1 + x64 中文多语免费版.zip

    运行Revo Uninstaller你会发现所有已经安装软件将会以图标的形式显示在主界面中,你仿佛在使用 Windows 自带资源管理器一般,通过鼠标右键,你可以卸载该软件、查询该软件的注册表项、打开该软件所属公司的网站、...

    linux opencv3.4.1+ffmpeg4.3.1+x264.rar

    opencv读取摄像头,opencv人脸检测,opencv RGB转YUV,ffmpeg编码生成h264,里面有具体的程序,包含库文件,本实验读取opencv读取usb摄像头,通过转换将rgb转yuv,传入ffmeg,然后编码生成h264文件,代码中可以修改...

    mayavi-4.3.1+vtk510-cp27-none-win32.whl.rar

    pip安装失败可以尝试使用whl离线安装包安装 第一步 下载whl文件,注意需要与python版本配套 python版本号、32位64位、arm或amd64均有区别 第二步 使用pip install XXXXX.whl 命令安装,如果whl路径不在cmd窗口当前...

    mayavi-4.3.1+vtk510-cp27-none-win_amd64.whl.rar

    pip安装失败可以尝试使用whl离线安装包安装 第一步 下载whl文件,注意需要与python版本配套 python版本号、32位64位、arm或amd64均有区别 第二步 使用pip install XXXXX.whl 命令安装,如果whl路径不在cmd窗口当前...

    ckeditor4.46+ckfinder2.4+配置文档说明

    1. **安装步骤**:通常会包括下载 CKEditor 和 CKFinder,然后将它们添加到项目中,配置编辑器的配置文件以启用 CKFinder。 2. **配置项详解**:如 CKEditor 的 `config.js` 文件中的 `filebrowserBrowseUrl` 和 `...

    PowerProV4.3.1B_SP5_中文安装盘.zip

    PowerProV4.3.1B_SP5_中文安装盘zip,PowerProV4.3.1B_SP5_中文安装盘

    ffmpeg-4.3.1-dev+shared+static+源码所有资源包

    7. **FFmpeg 的持续发展** FFmpeg 不断更新,以支持最新的编码标准和技术。4.3.1 版本可能包含了新的特性和性能优化,建议定期更新以获取最佳体验。 总的来说,这个资源包为学习和开发 FFmpeg 提供了完整的环境,...

    木鱼订票助手(4.3.1)+猎豹浏览器抢票专版

    "木鱼订票助手(4.3.1)+猎豹浏览器抢票专版"的组合,便是这一领域中的利器,其强大的功能为用户提供了极大的便利。2013年1月20日的更新,使得这款工具的功能进一步强化,成为了当时最为强大的抢票助手之一。 首先...

    compat-libgmp-4.3.1-1.sl7.x86_64.rar

    《解决CentOS 7安装libgmp.so.3依赖问题:compat-libgmp-4.3.1-1.sl7.x86_64.rpm详解》 在Linux系统管理中,尤其是在软件安装过程中,依赖性问题是一个常见的挑战。在CentOS 7这个流行的Linux发行版上,用户可能会...

    PowerPro 4.3.1B_SP2安装盘.rar

    2. 安装过程:"PowerPro 4.3.1B_SP2安装盘.rar"是PowerPro的升级版本,包含了SP2(Service Pack 2)的补丁,旨在修复前一版本可能存在的问题并优化性能。用户需要先解压RAR文件,然后按照安装向导步骤进行操作,确保...

    Hollysys-和利时 PowerProV4.3.1B_SP5_英文安装盘.zip

    “Hollysys-和利时 PowerProV4.3.1B_SP5_英文安装盘.zip”是一款由和利时公司推出的工业自动化控制软件——PowerPro的英文版本安装包。和利时,作为中国知名的自动化解决方案提供商,其PowerPro系列软件在业内享有较...

    【1分】tomcat7+eclipse源码引用jar包

    在Java Web开发中,Tomcat7是一个广泛应用的开源Servlet容器,它实现了Java Servlet和JavaServer Pages(JSP)规范。Eclipse则是一款强大的集成开发环境(IDE),支持Java应用程序的编写和调试。当我们需要对Tomcat7...

    paraview4.3.1安装包for windows

    用户应遵循安装向导的提示,选择安装路径、配置选项等,完成Paraview的安装。64位版本意味着该软件能够利用现代Windows系统中的全部内存,处理大规模的数据集。 另一文件"Readme-说明.htm"是常见的“阅读我”文件,...

Global site tag (gtag.js) - Google Analytics