`

java 网页抓取

阅读更多
import java.io.BufferedReader;   
import java.io.IOException;   
import java.io.InputStreamReader;   
import java.net.MalformedURLException;   
import java.net.URL;   
import java.util.ArrayList;   
import java.util.HashMap;   
import java.util.List;   
import java.util.regex.Matcher;   
import java.util.regex.Pattern;   
  
  
public class WebContent   
{   
 /**  
  * 读取一个网页全部内容  
  */  
 public String getOneHtml(final String htmlurl) throws IOException   
 {   
  URL url;   
  String temp;   
  final StringBuffer sb = new StringBuffer();   
  try  
  {   
   url = new URL(htmlurl);   
   final BufferedReader in = new BufferedReader(new InputStreamReader(url.openStream(), "utf-8"));// 读取网页全部内容   
   while ((temp = in.readLine()) != null)   
   {   
    sb.append(temp);   
   }   
   in.close();   
  }   
  catch (final MalformedURLException me)   
  {   
   System.out.println("你输入的URL格式有问题!请仔细输入");   
   me.getMessage();   
   throw me;   
  }   
  catch (final IOException e)   
  {   
   e.printStackTrace();   
   throw e;   
  }   
  return sb.toString();   
 }   
  
 /**  
  *   
  * @param s  
  * @return 获得网页标题  
  */  
 public String getTitle(final String s)   
 {   
  String regex;   
  String title = "";   
  final List<String> list = new ArrayList<String>();   
  regex = "<title>.*?</title>";   
  final Pattern pa = Pattern.compile(regex, Pattern.CANON_EQ);   
  final Matcher ma = pa.matcher(s);   
  while (ma.find())   
  {   
   list.add(ma.group());   
  }   
  for (int i = 0; i < list.size(); i++)   
  {   
   title = title + list.get(i);   
  }   
  return outTag(title);   
 }   
  
 /**  
  *   
  * @param s  
  * @return 获得链接  
  */  
 public List<String> getLink(final String s)   
 {   
  String regex;   
  final List<String> list = new ArrayList<String>();   
  regex = "<a[^>]*href=(\"([^\"]*)\"|\'([^\']*)\'|([^\\s>]*))[^>]*>(.*?)</a>";   
  final Pattern pa = Pattern.compile(regex, Pattern.DOTALL);   
  final Matcher ma = pa.matcher(s);   
  while (ma.find())   
  {   
   list.add(ma.group());   
  }   
  return list;   
 }   
  
 /**  
  *   
  * @param s  
  * @return 获得脚本代码  
  */  
 public List<String> getScript(final String s)   
 {   
  String regex;   
  final List<String> list = new ArrayList<String>();   
  regex = "<script.*?</script>";   
  final Pattern pa = Pattern.compile(regex, Pattern.DOTALL);   
  final Matcher ma = pa.matcher(s);   
  while (ma.find())   
  {   
   list.add(ma.group());   
  }   
  return list;   
 }   
  
 /**  
  *   
  * @param s  
  * @return 获得CSS  
  */  
 public List<String> getCSS(final String s)   
 {   
  String regex;   
  final List<String> list = new ArrayList<String>();   
  regex = "<style.*?</style>";   
  final Pattern pa = Pattern.compile(regex, Pattern.DOTALL);   
  final Matcher ma = pa.matcher(s);   
  while (ma.find())   
  {   
   list.add(ma.group());   
  }   
  return list;   
 }   
  
 /**  
  *   
  * @param s  
  * @return 去掉标记  
  */  
 public String outTag(final String s)   
 {   
  return s.replaceAll("<.*?>", "");   
 }   
  
 /**  
  *   
  * @param s  
  * @return 获取雅虎知识堂文章标题及内容  
  */  
 public HashMap<String, String> getFromYahoo(final String s)   
 {   
  final HashMap<String, String> hm = new HashMap<String, String>();   
  final StringBuffer sb = new StringBuffer();   
  String html = "";   
  System.out.println("\n------------------开始读取网页(" + s + ")--------------------");   
  try  
  {   
   html = getOneHtml(s);   
  }   
  catch (final Exception e)   
  {   
   e.getMessage();   
  }   
  // System.out.println(html);   
  System.out.println("------------------读取网页(" + s + ")结束--------------------\n");   
  System.out.println("------------------分析(" + s + ")结果如下--------------------\n");   
  String title = outTag(getTitle(html));   
  title = title.replaceAll("_雅虎知识堂", "");   
  // Pattern pa=Pattern.compile("<div   
  // class=\"original\">(.*?)((\r\n)*)(.*?)((\r\n)*)(.*?)</div>",Pattern.DOTALL);   
  final Pattern pa = Pattern.compile("<div class=\"original\">(.*?)</p></div>", Pattern.DOTALL);   
  final Matcher ma = pa.matcher(html);   
  while (ma.find())   
  {   
   sb.append(ma.group());   
  }   
  String temp = sb.toString();   
  temp = temp.replaceAll("(<br>)+?", "\n");// 转化换行   
  temp = temp.replaceAll("<p><em>.*?</em></p>", "");// 去图片注释   
  hm.put("title", title);   
  hm.put("original", outTag(temp));   
  return hm;   
  
 }   
  
 /**  
  *   
  * @param args  
  *            测试一组网页,针对雅虎知识堂  
  */  
 public static void main(final String args[])   
 {   
  String url = "";   
  final List<String> list = new ArrayList<String>();   
  System.out.print("输入URL,一行一个,输入结束后输入 go 程序开始运行:   \n");   
  /*  
   * http://ks.cn.yahoo.com/question/1307121201133.html  
   * http://ks.cn.yahoo.com/question/1307121101907.html  
   * http://ks.cn.yahoo.com/question/1307121101907_2.html  
   * http://ks.cn.yahoo.com/question/1307121101907_3.html  
   * http://ks.cn.yahoo.com/question/1307121101907_4.html  
   * http://ks.cn.yahoo.com/question/1307121101907_5.html  
   * http://ks.cn.yahoo.com/question/1307121101907_6.html  
   * http://ks.cn.yahoo.com/question/1307121101907_7.html  
   * http://ks.cn.yahoo.com/question/1307121101907_8.html  
   */  
  final BufferedReader br = new BufferedReader(new InputStreamReader(System.in));   
  try  
  {   
   while (!(url = br.readLine()).equals("go"))   
   {   
    list.add(url);   
   }   
  }   
  catch (final Exception e)   
  {   
   e.getMessage();   
  }   
  final WebContent wc = new WebContent();   
  HashMap<String, String> hm = new HashMap<String, String>();   
  for (int i = 0; i < list.size(); i++)   
  {   
   hm = wc.getFromYahoo(list.get(i));   
   System.out.println("标题: " + hm.get("title"));   
   System.out.println("内容: \n" + hm.get("original"));   
  }   
  /*  
   * String htmlurl[] = {  
   * "http://ks.cn.yahoo.com/question/1307121201133.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907_2.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907_3.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907_4.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907_5.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907_6.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907_7.html",  
   * "http://ks.cn.yahoo.com/question/1307121101907_8.html" }; WebContent  
   * wc = new WebContent(); HashMap<String, String> hm = new HashMap<String,  
   * String>(); for (int i = 0; i < htmlurl.length; i++) { hm =  
   * wc.getFromYahoo(htmlurl[i]); System.out.println("标题: " +  
   * hm.get("title")); System.out.println("内容: \n" + hm.get("original")); }  
   */  
  /*  
   * String html=""; String link=""; String sscript=""; String content="";  
   * System.out.println(htmlurl+" 开始读取网页内容:");  
   * html=wc.getOneHtml(htmlurl); System.out.println(htmlurl+"  
   * 读取完毕开始分析……"); html=html.replaceAll("(<script.*?)((\r\n)*)(.*?)((\r\n)*)(.*?)(</script>)","  
   * ");//去除脚本 html=html.replaceAll("(<style.*?)((\r\n)*)(.*?)((\r\n)*)(.*?)(</style>)","  
   * ");//去掉CSS html=html.replaceAll("<title>.*?</title>"," ");//除去页面标题  
   * html=html.replaceAll("<a[^>]*href=(\"([^\"]*)\"|\'([^\']*)\'|([^\\s>]*))[^>]*>(.*?)</a>","  
   * ");//去掉链接 html=html.replaceAll("(\\s){2,}?"," ");//除去多余空格  
   * html=wc.outTag(html);//多余标记 System.out.println(html);  
   */  
  
  /*  
   * String s[]=html.split(" +"); for(int i=0;i<s.length;i++){  
   * content=(content.length()>s[i].length())?content:s[i]; }  
   * System.out.println(content);  
   */  
  
  // System.out.println(htmlurl+"网页内容结束");   
  /*  
   * System.out.println(htmlurl+"网页脚本开始:"); List  
   * script=wc.getScript(html); for(int i=0;i<script.size();i++){  
   * System.out.println(script.get(i)); }  
   * System.out.println(htmlurl+"网页脚本结束:");  
   *   
   * System.out.println(htmlurl+"CSS开始:"); List css=wc.getCSS(html);  
   * for(int i=0;i<css.size();i++){ System.out.println(css.get(i)); }  
   * System.out.println(htmlurl+"CSS结束:");  
   *   
   * System.out.println(htmlurl+"全部链接内容开始:"); List list=wc.getLink(html);  
   * for(int i=0;i<list.size();i++){ link=list.get(i).toString(); }  
   * System.out.println(htmlurl+"全部链接内容结束:");  
   *   
   * System.out.println("内容"); System.out.println(wc.outTag(html));  
   */  
 }   
}  

 

分享到:
评论

相关推荐

    java网页抓取数据

    Java网页抓取数据是互联网数据挖掘的一个重要领域,它允许开发者通过编程方式获取网页上的信息,从而实现自动化分析、监控或构建智能应用。在Java中,我们通常使用HTTP客户端库和HTML解析工具来实现这一目标。本文将...

    java网页抓取demo

    Java网页抓取是一种技术,主要用于从互联网上自动提取或获取数据。这个"java网页抓取demo"项目提供了实现这一功能的实例代码。项目中的jar包是实现网页抓取的关键依赖库,包括Apache Commons Logging和HTTP Client。...

    Java网页抓取数据

    Java网页抓取数据是互联网开发中的一个重要技能,它允许开发者从网页中提取所需的信息,如新闻、产品数据或用户评论,以供进一步分析或利用。本主题主要涵盖以下几个关键知识点: 1. **网络请求库**:在Java中,...

    java网页抓取Jsoup包全

    Java网页抓取是一个常见的任务,用于从网页上提取结构化数据,例如HTML文档中的文本、链接、图片等信息。在Java领域,Jsoup是一个非常流行的库,它提供了强大的功能来解析、操纵和提取HTML内容。Jsoup包全指的是包含...

    java网页数据抓取源代码

    java抓取网页数据,主要用于抓取手机号和身份证查询网站的数据。

    Java实现网页抓取

    在这个Java实现网页抓取的项目中,我们将探讨如何利用Java编程语言来抓取网页内容。下面将详细介绍这个过程涉及的关键知识点。 1. **网络基础知识**:首先,理解HTTP协议是必要的,它是互联网上应用最广泛的一种...

    java进行网页抓取

    java程序,能进行简单的网页抓取,及数据抓取,里面还有火车采集器的内容

    Java抓取网页数据Demo

    本文将详细讨论如何使用Java语言来抓取网页数据,包括两种主要方法:直接抓取原网页内容和处理网页中的JavaScript返回数据。 首先,让我们探讨**抓取原网页**的方法。在Java中,我们可以使用`java.net.URL`类来建立...

    Java抓取https网页数据

    Java抓取https网页数据,解决peer not authenticated异常。导入eclipse就能运行,带有所用的jar包(commons-httpclient-3.1.jar,commons-logging.jar,httpclient-4.2.5.jar,httpcore-4.2.4.jar)

    java抓取网页数据

    在“java抓取网页数据”这个主题中,我们将深入探讨如何利用Java来抓取并处理互联网上的信息。 首先,我们要了解什么是网络爬虫。网络爬虫(Web Crawler)是自动遍历互联网的程序,通过抓取网页内容并存储在本地,...

    java抓取与采集页面内容 喜欢的拿去研究下

    以上就是基于给定文件名的Java网页抓取相关知识点的介绍。实际项目中,这些基础知识会结合具体的需求和技术栈进行扩展和应用。如果你深入研究这两个文件,将有助于你理解网络爬虫的基本工作原理和实现细节。

    Java 实例 - 网页抓取源代码+详细指导教程.zip

    总的来说,Java网页抓取涉及到网络协议理解、HTML解析以及可能的JavaScript处理。通过这个教程,你将学会如何使用Jsoup和HttpClient这两个工具,有效地从互联网上抓取和解析数据。记得在实际操作时,尊重网站的...

    java简单的抓取网页内容的程序

    java简单的抓取网页内容的程序java简单的抓取网页内容的程序java简单的抓取网页内容的程序java简单的抓取网页内容的程序java简单的抓取网页内容的程序java简单的抓取网页内容的程序java简单的抓取网页内容的程序java...

    Java编程指南(网页爬虫机器人聚合器)

    Java编程指南:网页爬虫机器人聚合器 在Java编程领域,网页爬虫是获取大量网络数据的重要工具。本指南将深入讲解如何使用Java构建一个网页爬虫机器人,并实现数据的聚合处理。首先,我们需要理解爬虫的基本原理和...

    java简单抓取网页内容

    在Java编程语言中,抓取网页内容是一项常见的任务,尤其对于...通过以上步骤,你可以在Java中实现简单的网页抓取。随着经验的积累,你可以逐渐掌握更复杂的技术,如数据存储、分布式爬虫等,进一步提升网页抓取的能力。

    java抓取网页-java工具类

    java抓取网页java工具类java抓取网页java工具类

    Java抓取网页内容三种方式

    Java 抓取网页内容三种方式 Java 抓取网页内容是指使用 Java 语言从互联网上抓取网页内容的过程。抓取网页内容是数据爬虫和网络爬虫的基础,它广泛应用于数据挖掘、信息检索、机器学习等领域。本文将介绍使用 Java...

    java爬虫抓取网页数据教程.pdf

    本文是一份关于使用Java语言进行网页数据抓取的教程,主要介绍了使用Apache HttpClient这个库来完成网络请求和数据获取的操作。Apache HttpClient是一个支持HTTP协议的客户端工具,被广泛应用于Java爬虫开发中,帮助...

    java网络爬虫抓取网页数据

    Java网络爬虫是一种自动化程序,用于从互联网上抓取大量数据。它的工作原理是模拟浏览器发送HTTP请求到服务器,接收响应,并解析返回的HTML或XML文档以提取所需信息。在这个过程中,HttpClient是一个常用的Java库,...

Global site tag (gtag.js) - Google Analytics