`
yuhai.china
  • 浏览: 160128 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

使用开源组件搭建搜索引擎

阅读更多

在开发中小型搜索引擎的过程中,我使用由Java开发的开源软件:jspider,htmlparser,lucence,IKAnalyzer,下面我一一道来。

lucence很著名啦,不必多说,我写的这个引擎就是在它自带的demo基础上重构的。

jspider顾名思义,是一个用Java开发的爬虫。

htmlparser是解析html页面的,因为lucene自带的html解析器不够健壮,所以用了这个。

 IKAnalyzer是为lucence定做的中文分词组件,在使用中我发现效果不错。

具体的编码下次再说吧,呵呵

  • 描述: 效果
  • 大小: 615.1 KB
分享到:
评论
11 楼 eltonto 2007-10-13  
期待新品
10 楼 sadfasfasd 2007-09-22  
完了?
9 楼 libiao_0524 2007-06-25  
期待继续更新
8 楼 kin_me 2007-06-25  
请说jspider只能是对HTML的url进行检索,
是嘛,
不知道Heritrix这个怎么样呢,对比起来!!
7 楼 yuhai.china 2007-06-22  
这个时候,htmlparser闪亮登场
6 楼 yuhai.china 2007-06-22  
从源代码可以看到,中文分词已经加进去了,
而索引HTML的关键工作是由 HTMLDocument这个类完成的,需要对它进行重构
5 楼 yuhai.china 2007-06-22  
import org.mira.lucene.analysis.MIK_CAnalyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.demo.HTMLDocument;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.Term;
import org.apache.lucene.index.TermEnum;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;

import java.io.File;
import java.util.Date;
import java.util.Arrays;

/** Indexer for HTML files. */
public class IndexHTML {
  private IndexHTML() {}

  private static boolean deleting = false;   // true during deletion pass
  private static IndexReader reader;   // existing index
  private static IndexWriter writer;   // new index being built
  private static TermEnum uidIter;   // document id iterator

  /** Indexer for HTML files.*/
  public static void main(String[] argv) {
    try {
      String index = "index";
      boolean create = true;
      File root = null;
     

      String usage = "IndexHTML [-create] [-index <index>] <root_directory>";
/*
      if (argv.length == 0) {
        System.err.println("Usage: " + usage);
        return;
      }

      for (int i = 0; i < argv.length; i++) {
        if (argv[i].equals("-index")) {   // parse -index option
          index = argv[++i];
        } else if (argv[i].equals("-create")) {   // parse -create option
          create = true;
        } else if (i != argv.length-1) {
          System.err.println("Usage: " + usage);
          return;
        } else
          root = new File(argv[i]);
      }
*/
      Date start = new Date();
      root = new File("c://tes1");
      index = "c://index1";
      if (!create) {   // delete stale docs
        deleting = true;
        indexDocs(root, index, create);
      }
      writer = new IndexWriter(index, new MIK_CAnalyzer(), create);
      writer.setMaxBufferedDocs(30);
      writer.setMergeFactor(100);
      writer.setMaxFieldLength(1000000);
      indexDocs(root, index, create);   // add new docs

      System.out.println("Optimizing index...");
     
      writer.optimize();
      writer.close();

      Date end = new Date();

      System.out.print(end.getTime() - start.getTime());
      System.out.println(" total milliseconds");

    } catch (Exception e) {
      System.out.println(" caught a " + e.getClass() +
          "\n with message: " + e.getMessage());
    }
  }

  /* Walk directory hierarchy in uid order, while keeping uid iterator from
  /* existing index in sync.  Mismatches indicate one of: (a) old documents to
  /* be deleted; (b) unchanged documents, to be left alone; or (c) new
  /* documents, to be indexed.
   */

  private static void indexDocs(File file, String index, boolean create)
       throws Exception {
    if (!create) {   // incrementally update

      reader = IndexReader.open(index);   // open existing index
      uidIter = reader.terms(new Term("uid", "")); // init uid iterator

      indexDocs(file);

      if (deleting) {   // delete rest of stale docs
        while (uidIter.term() != null && uidIter.term().field() == "uid") {
          System.out.println("deleting " +
              HTMLDocument.uid2url(uidIter.term().text()));
          reader.deleteDocuments(uidIter.term());
          uidIter.next();
        }
        deleting = false;
      }

      uidIter.close();   // close uid iterator
      reader.close();   // close existing index

    } else   // don't have exisiting
      indexDocs(file);
  }

  private static void indexDocs(File file) throws Exception {
    if (file.isDirectory()) {   // if a directory
      String[] files = file.list();   // list its files
      Arrays.sort(files);   // sort the files
      for (int i = 0; i < files.length; i++)   // recursively index them
        indexDocs(new File(file, files[i]));

    } else if (file.getPath().endsWith(".html") || // index .html files
      file.getPath().endsWith(".htm") || // index .htm files
      file.getPath().endsWith(".txt")) { // index .txt files

      if (uidIter != null) {
        String uid = HTMLDocument.uid(file);   // construct uid for doc

        while (uidIter.term() != null && uidIter.term().field() == "uid" &&
            uidIter.term().text().compareTo(uid) < 0) {
          if (deleting) {   // delete stale docs
            System.out.println("deleting " +
                HTMLDocument.uid2url(uidIter.term().text()));
            reader.deleteDocuments(uidIter.term());
          }
          uidIter.next();
        }
        if (uidIter.term() != null && uidIter.term().field() == "uid" &&
            uidIter.term().text().compareTo(uid) == 0) {
          uidIter.next();   // keep matching docs
        } else if (!deleting) {   // add new docs
          Document doc = HTMLDocument.Document(file);
          System.out.println("adding " + doc.get("path"));
          writer.addDocument(doc);
        }
      } else {   // creating a new index
        Document doc = HTMLDocument.Document(file);
        System.out.println("adding " + doc.get("path"));
        writer.addDocument(doc);   // add docs unconditionally
      }
    }
  }
}
4 楼 yuhai.china 2007-06-22  
建立索引
我首先分析了
lucene-2.1.0\src\demo\org\apache\lucene\demo\IndexHtml.java
这个文件提供了很好的实例,我简单重构了一下就可以用了
3 楼 yuhai.china 2007-06-22  
剩下的工作就是建立索引和利用索引提供查询服务。
2 楼 yuhai.china 2007-06-22  
接着说。
用jspider从新浪和163开始爬了大约200M的材料,作为构建搜索引擎的基础,我开始了自己的搜索引擎之路。
1 楼 cngump 2007-06-22  
关注一下。

相关推荐

    迅速搭建全文搜索平台——开源搜索引擎实战教程--代码.rar

    总的来说,这个实战教程将带你从零开始,通过实际操作,掌握开源搜索引擎Elasticsearch的使用,让你能够迅速搭建出自己的全文搜索平台。无论你是开发者还是系统管理员,都能从中受益,提升你的技术能力。现在就让...

    《迅速搭建全文搜索平台—开源搜索引擎实战教程》作者于天恩—代码

    在《迅速搭建全文搜索平台—开源搜索引擎实战教程》中,作者可能详细讲解了如何配置和使用这些工具。 `readme.txt` 文件可能是教程的入门指南,包含项目概述、环境配置、安装步骤和运行示例。通过阅读此文件,我们...

    信息检索的开源工具(骆卫华)

    骆卫华在其文章中详细探讨了基于开源工具搭建小型搜索引擎的过程,及其所涉及的关键组件和功能实现。 搜索引擎的体系结构通常包含多个核心组件,这些组件包括采集器、分析器、索引器、索引数据库和检索器。采集器...

    开源搜索网站开源搜索网站

    搜索引擎通常包括以下几个关键组件:爬虫、索引器、查询处理器和排序算法。爬虫负责从互联网上抓取网页;索引器对抓取的数据进行预处理,如分词、去重和存储;查询处理器接收用户的搜索请求并解析查询语句;最后,...

    搜索引擎ASP.NET

    在【压缩包子文件的文件名称列表】中提到的"龙蛛搜索引擎 v2.1.2596.17577"可能是一个特定的搜索引擎产品或组件,它可能是用于搭建ASP.NET搜索引擎的一个解决方案。这个组件可能包含了数据抓取、索引构建、查询处理...

    人工智能-项目实践-搜索引擎-基于solrj开发solr主从搜索引擎服务的dubbo组件

    《基于Solrj开发Solr主从搜索引擎服务的Dubbo组件》 在现代信息技术领域,搜索引擎作为信息检索的重要工具,其高效、精准的搜索能力对于企业和用户来说具有极高的价值。本项目实践聚焦于利用Solrj开发一个支持主从...

    搜索引擎Lucene+Heritrix(第二版)4

    《搜索引擎Lucene+Heritrix(第二版)4》是一本深入探讨搜索引擎技术的专业书籍,主要围绕两个核心组件——Lucene和Heritrix展开。Lucene是Apache软件基金会的一个开源全文检索库,而Heritrix则是一个网络爬虫工具,...

    PhpSou搜索引擎(整合sphinx) v3.1.1

    对于需要搭建内部搜索引擎或者希望自定义搜索功能的开发者来说,这是一个值得考虑的工具。同时,用户在使用过程中,务必遵循提供的安装指南,并确保PHP环境满足版本要求,以保证最佳的运行效果。

    基于PHP的MyEngine开源搜素引擎php版beta.zip

    6. **安装与配置**:对于开源项目,通常会提供详细的安装指南和配置文件,帮助用户快速搭建和定制搜索引擎。 7. **社区支持**:开源项目往往拥有活跃的社区,用户可以在这里获取帮助、分享经验,甚至参与到项目的...

    基于LUCENE的搜索引擎的设计与实现源代码

    在IT领域,搜索引擎是至关重要的工具,用于帮助用户在海量数据中快速找到所需的信息。...在实际项目中,还可能结合其他技术,如Solr或Elasticsearch,来扩展Lucene的功能,搭建分布式搜索引擎系统。

    nutch+lucene开发自己的搜索引擎ch3.pdf

    部分内容介绍了如何利用开源工具快速搭建具有搜索功能的系统,具体涵盖了Nutch和Lucene的基础知识及其在搜索引擎开发中的应用。 #### 二、Nutch与Lucene简介 1. **Lucene系统概述**: - **背景**: Lucene是由Doug ...

    基于Lucene+webmagic实现的垂直搜索引擎

    Apache Lucene是一个开源全文搜索引擎库,它提供了高级文本分析和索引功能,而WebMagic则是一个Java实现的网页抓取框架,它简化了网页抓取和处理的过程。 首先,我们要理解Lucene的工作原理。Lucene的核心是它的倒...

    顺新站内搜索引擎 v1.2

    综上所述,"顺新站内搜索引擎 v1.2"是一个使用AJAX技术,通过调用百度API实现站内搜索功能的开源解决方案。它提供完整的源代码,用户可以根据自己的需求进行定制,并且附带相关资料以便用户学习和部署。通过这个系统...

    risearch_php.zip_risearch_php_search engine php_垂直 搜索_垂直搜索_搜索引擎

    该压缩包中的文件包括了搜索引擎的核心组件: 1. `template.htm`:这是搜索结果的模板文件,用于定义搜索结果展示的HTML结构。开发者可以根据需求自定义搜索结果的样式和布局,以便更好地呈现搜索结果。 2. `...

    高性能分布式搜索引擎Solr的研究与实现.pdf

    这些关键词指向了构建高性能分布式搜索引擎所需的各个关键组件和概念。 Solr是一个开源的搜索引擎,它是基于Java语言开发的全文搜索引擎库Lucene构建的。Solr使用了Lucene的全文搜索库,提供了比Lucene更丰富的查询...

    go语言实现的简单搜索引擎demo,使用了redis,colly,gin-gonic等技术

    在这个搜索引擎项目中,Gin-Gonic可能用于搭建Web服务器,接收用户的搜索请求,然后将请求转发给后端的搜索引擎逻辑,处理结果后再返回给用户。Gin-Gonic的路由功能和中间件系统使得构建RESTful API变得简单直观。 ...

    WEB搜索引擎分析设计与实现毕业论文(20210809123505).pdf

    搜索引擎的工作原理涉及到多个关键技术组件,如爬虫、索引器和检索器等。爬虫(也称为蜘蛛)负责从互联网上抓取网页,索引器将抓取来的网页内容进行索引,构建可用于快速检索的数据结构,检索器则负责根据用户的查询...

Global site tag (gtag.js) - Google Analytics