`
zhouaihuafly
  • 浏览: 16820 次
  • 性别: Icon_minigender_1
  • 来自: 珠海
文章分类
社区版块
存档分类
最新评论

定时抓取

阅读更多
流程
1:提供要抓取的网页地址(列表)

2:提取网页列表中目标所有LINK

3:抓取LINK中的所有网页(爬虫)

4:解析正文内容

5:存入数据库



一、抓取任务(主程序)
package com.test;

import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.List;



public class CatchJob {
   
    public String catchJob(String url){
       
        String document= null;
        List allLinks = null;
        try {
           
//          获取网页内容
            document = ExtractPage.getContentByUrl(url);
//          获取页面指定内容的Link
            allLinks = ExtractPage.getLinksByConditions(document, "http://www.free9.net/others/gift/");
            if(allLinks!=null&&!allLinks.isEmpty()){
                for(int i=0;i<allLinks.size();i++){
                    String link = (String)allLinks.get(i);
                    String content = ExtractPage.getContentByUrl(link);
                    ExtractPage.readByHtml(content);
                }          
            }
           
        } catch (Exception e) {
            // TODO Auto-generated catch block
            e.printStackTrace();
        }
       
       
        return "success";
       
       
    }
   
   
   
   
   
      
    
        public static void main(String[] args){
            Long startTime = System.currentTimeMillis();
            System.out.println(">>start.......");
            String   httpProxyHost   =   "211.167.0.131";//default   http   proxy  
            String   httpProxyPort   =   "80"; //default   http   port  
            System.getProperties().setProperty( "http.proxyHost", httpProxyHost);
            System.getProperties().setProperty( "http.proxyPort", httpProxyPort);
            CatchJob job = new CatchJob();
            //System.out.println(job.catchJob("http://www.free9.net/others/gift/2008-12-09/12288046534312.htm"));
            System.out.println(job.catchJob("http://www.free9.net/others/gift/"));
            Date   date   =   new   Date(System.currentTimeMillis()-startTime);
            SimpleDateFormat   sdf   =   new   SimpleDateFormat("HH:mm:ss ");
            String   s   =   sdf.format(date);
            System.out.println(">>end.......USE"+s+"秒");
        }

}




二、抓取网页内容,并解析


package com.test;

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.HttpURLConnection;
import java.net.MalformedURLException;
import java.net.URL;
import java.util.ArrayList;
import java.util.List;

import org.htmlparser.Node;
import org.htmlparser.NodeFilter;
import org.htmlparser.Parser;
import org.htmlparser.filters.NodeClassFilter;
import org.htmlparser.filters.OrFilter;
import org.htmlparser.tags.Div;
import org.htmlparser.tags.LinkTag;
import org.htmlparser.tags.TitleTag;
import org.htmlparser.util.NodeList;
import org.htmlparser.util.ParserException;

public class ExtractPage {
   
    //抓取页面内容
    public static String getContentByUrl(String url){
        System.out.println("**********抓取页面内容***********");
        StringBuffer document= null;
        URL targetUrl;
        try {
            targetUrl = new URL(url);
            HttpURLConnection con = (HttpURLConnection) targetUrl.openConnection();
            con.setFollowRedirects(true);
            con.setInstanceFollowRedirects(false);
            con.connect();
           
            BufferedReader br = new BufferedReader(new InputStreamReader(con.getInputStream(),"gb2312"));
            String s = "";
            document= new StringBuffer();
            while ((s = br.readLine()) != null) {

                document.append(s+"\r\n");

            }
            s=null;
            br.close();
            return document.toString();
           
        } catch (MalformedURLException e) {
            // TODO Auto-generated catch block
            e.printStackTrace();
        } catch (IOException e) {
            // TODO Auto-generated catch block
            e.printStackTrace();
        }
        return null;
       
    }
   
   
//  按页面方式处理.解析标准的html页面
     public static void readByHtml(String result) throws Exception
        {
         System.out.println("**********按页面方式处理.解析标准的html页面***********");
            Parser parser;
            NodeList nodelist;
            parser = Parser.createParser(result, "utf8");
            NodeFilter textFilter = new NodeClassFilter(Div.class);
            //NodeFilter linkFilter = new NodeClassFilter(LinkTag.class);
            NodeFilter titleFilter = new NodeClassFilter(TitleTag.class);
            OrFilter lastFilter = new OrFilter();
            lastFilter.setPredicates(new NodeFilter[] { textFilter,titleFilter});
            nodelist = parser.parse(lastFilter);
            Node[] nodes = nodelist.toNodeArray();
            StringBuffer page = new StringBuffer();
            String id = "";
            for (int i = 0; i < nodes.length; i++) {
                Node node = nodes[i];
                if (node instanceof Div) {
                    Div textnode = (Div) node;
                    id = textnode.getAttribute("id");
                   if ("Zoom".equals(id)) {
                    //System.out.println(textnode.getChild(5).toHtml());
                    page.append(textnode.getChild(5).toHtml().toString());
                    page.append(textnode.getChild(6).toHtml().toString());
                   }
                }else if (node instanceof TitleTag) {
                    TitleTag titlenode = (TitleTag) node;
                    page.append(titlenode.getTitle().substring(0, titlenode.getTitle().indexOf("|")));
                }
                /*
                else if (node instanceof LinkTag) {
                    LinkTag link = (LinkTag) node;
                    line = link.getLink();
                } else if (node instanceof TitleTag) {
                    TitleTag titlenode = (TitleTag) node;
                    line = titlenode.getTitle();
                }
                */
                //if (isTrimEmpty(line))
                    //continue;
               
            }
            System.out.println(page.toString());
     
        }
    
     //获取页面指定内容的Link
     public static List getLinksByConditions(String result,String coditions){
         System.out.println("**********//获取页面指定内容的Link***********");
         List links = null;
         Parser parser;
         NodeList nodelist;
         parser = Parser.createParser(result, "utf8");
         NodeFilter linkFilter = new NodeClassFilter(LinkTag.class);
         try {
            links =  new ArrayList();
            nodelist = parser.parse(linkFilter);
            Node[] nodes = nodelist.toNodeArray();
             for (int i = 0; i < nodes.length; i++) {
                    Node node = nodes[i];
                    if (node instanceof LinkTag) {
                        LinkTag link = (LinkTag) node;
                        if(link.toHtml().indexOf(coditions)!=-1&&link.toHtml().indexOf("index")==-1&&link.toHtml().indexOf(".htm")!=-1){
                            System.out.println(link.toHtml());
                            links.add(link.getLink());
                        }
                      
                    }
                   
                    //if (isTrimEmpty(line))
                        //continue;
                   
             }
           
           
        } catch (ParserException e) {
            // TODO Auto-generated catch block
            e.printStackTrace();
        }
        
        
        return links;
        
     }

}

1
2
分享到:
评论

相关推荐

    html定时抓取程序

    HTML定时抓取程序是一种基于HTTP协议的自动化工具,主要用于定期从互联网上获取特定网页的内容,并将其保存为.htm格式的文件。这种程序在信息监控、数据分析、网站维护等多个领域都有广泛应用。接下来,我们将深入...

    图片定时抓取代码

    在IT行业中,图片定时抓取是一项常见的需求,例如用于数据监测、新闻聚合或者个人收藏等。本项目名为“图片定时抓取代码”,其主要功能是自动化地从指定网页抓取图片,并且设置为定时任务,使得程序能持续运行,无需...

    定时抓取功能所用到的jar包

    在IT行业中,定时抓取(定时任务)是一种常见的需求,特别是在大数据分析、网站监控和信息自动化更新等场景中。为了实现这一功能,开发者通常会利用各种工具和库,其中Java平台上的jar包尤为常见。本资源提供的...

    用Delphi做的定时抓取活动窗口

    本项目“用Delphi做的定时抓取活动窗口”涉及到的是利用Delphi进行系统监控和屏幕捕获的技术,这在自动化测试、数据分析、监控软件以及屏幕录制等多种场景中有广泛应用。 首先,我们需要理解“活动窗口”的概念。在...

    EVC定时抓取屏幕小程序

    在Windows CE(简称Wince)操作系统环境下,开发一个EVC(Embedded Visual C++)定时抓取屏幕的小程序是一项实用的任务。这个小程序可以帮助用户定期捕获设备的屏幕快照,保存为图像文件,以便进行监控、分析或记录...

    读取json文件定时抓取新数据.

    标题中的“读取json文件定时抓取新数据”是一个典型的Web应用功能,它涉及到两个主要技术:JSON数据处理和定时任务。JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,广泛用于前后端交互。定时抓取...

    定时抓取图灵社区官网的首页最热推荐和最新等栏目的相关信息进行展示

    在IT行业中,定时抓取网站数据是一项常见的任务,特别是在数据分析、信息监控和自动化报告等领域。图灵社区是一个知名的IT知识分享平台,提供了丰富的技术书籍、文章和资源。本项目的目标是利用JavaScript技术定时...

    【ASP.NET编程知识】.NET Core 实现定时抓取网站文章并发送到邮箱.docx

    【ASP.NET编程知识】.NET Core 实现定时抓取网站文章并发送到邮箱 这篇文章将带你深入了解如何使用.NET Core框架创建一个自动定时抓取指定网站文章,并将其内容发送至指定邮箱的应用程序。这个实用工具主要涉及到...

    java定时抓取指定微信公众号账号文章程序

    java定时抓取指定微信公众号账号文章程序

    使用 Python 爬取股票数据和实现数据接口 1.定时抓取和解析数据2.存储数据到 MongoDB3.缓存数据到 Redis4

    1. **定时抓取和解析数据** 要定时抓取股票数据,可以使用Python的`schedule`库或者`APScheduler`库。这些库允许我们设置定时任务,定期执行爬虫程序。首先,你需要确定数据源,例如雅虎财经、Google财经或国内的...

    分享一个自动定时FTP抓取生成一周日备份的批处理

    【标题】中的“自动定时FTP抓取生成一周日备份的批处理”是一个关于服务器管理和数据安全的话题,主要涉及以下几个核心知识点: 1. **自动备份**:自动备份是系统或服务的一项重要功能,它能定期创建数据副本,以防...

    水木清华社区招聘信息定时抓取,部署于新浪云

    水木清华社区招聘信息抓取并存入数据库,每一小时自动更新一次。 水木的招聘信息更新频繁,但是访问速度实在是很慢,于是就想不如把数据抓下来。 后面可能添加别的招聘网站的数据。 使用了Jsoup抓取...

    PowerShell小技巧之定时抓取屏幕图像

    当操作系统不方便装屏幕记录软件,但又需要看已经登录用户在干什么的时候,用PowerShell的脚本来实现定时抓取图像的方式记录操作,查看图像就知道登陆用户做了什么,当然你存放图片的目录要隐蔽,不要让用户发现了为...

    C# 定时爬虫

    爬虫,也称为网络爬虫或网页抓取器,是一种自动化程序,用于从互联网上抓取大量信息。在C#中,我们可以使用HttpClient类或者WebClient类来发送HTTP请求并获取网页内容。HttpClient是.NET Framework 4.5及更高版本中...

    定时爬虫抓取电子报纸并发送邮件.zip

    为了实现定时抓取和发送,项目可能使用了时间调度库,如Python的schedule或APScheduler,它们可以按设定的时间间隔运行特定任务。 总结起来,这个项目综合运用了网络爬虫技术来自动抓取电子报纸的信息,然后通过...

    Java抓取网页数据Demo

    在IT领域,网络数据抓取是一项重要的技能,特别是在大数据分析、搜索引擎优化和市场研究中。本文将详细讨论如何使用Java语言来抓取网页数据,包括两种主要方法:直接抓取原网页内容和处理网页中的JavaScript返回数据...

    非常实用的实时抓取火车票转让信息,第一时间秒杀转让车票,

    6. **定时任务**:为了实现定时抓取,项目可能使用了定时任务调度器,如Linux的cron或者Python的APScheduler库。定时任务会在预设的时间间隔执行爬虫任务,确保信息的实时更新。 7. **安全与合规**:在进行数据抓取...

    企查查企业信息爬虫 ,企查查app每日新增企业抓取,可以进行每日的增量抓取、企业数据、工商数据等等

    每天定时抓取 自动刷新token 省份、市的所有代码 token自动刷新 根据地址自动将省份、市、区县进行分割 所有数据存到redis里面 可以自动登录,账号需要独立 getnewdata.py 项目主入口 other放城市和省份代码 common...

    网站抓取工具免费版Teleport Ultra

    4. **计划任务**:Teleport Ultra支持定时抓取,通过`scheduler.exe`文件进行设置,用户可以安排在特定时间自动执行抓取任务,保持网站镜像的更新。 5. **文件管理**:抓取完成后,所有文件会被组织在一个项目目录...

Global site tag (gtag.js) - Google Analytics