2011.06.29——— Jsoup HttpClient 抓取网络上的图片
参考:
http://www.iteye.com/topic/1106648
http://www.ibm.com/developerworks/cn/java/j-lo-jsouphtml/index.html?ca=drs-
jsoup 官方网站:
http://jsoup.org
需要的主要jar包
httpclient-4.0.1jar jsoup-1.5.2.jar
主要代码 如下
Exmaple3.java
package com.th.spider.test;
import java.io.BufferedOutputStream;
import java.io.FileOutputStream;
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.apache.http.HttpEntity;
import org.apache.http.HttpResponse;
import org.apache.http.HttpStatus;
import org.apache.http.client.HttpClient;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.DefaultHttpClient;
import org.apache.http.params.CoreConnectionPNames;
import org.apache.http.util.EntityUtils;
import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class Exmaple3 {
private static final Log log = LogFactory.getLog(Exmaple3.class);
/**
* 抓取图片存放目录
*/
private static final String PIC_DIR = "/home/li/pic";
/**
* 链接超时
*/
private static final int TIME_OUT = 5000;
static void go3(String url) throws Exception {
Connection conn= Jsoup.connect(url);
Document doc = conn.get();
Elements links = doc.select("div.piclist img[src]");
for(int i=0;i<links.size();i++){
Element element = links.get(i);
final String imgUrl = element.attr("src");
log.info(imgUrl);
Thread.sleep(500);
new Thread(new Runnable() {
public void run() {
try {
save(imgUrl);
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
}).start();
}
}
static void go2(String url) throws Exception {
Connection conn= Jsoup.connect(url);
Document doc = conn.get();
Elements links = doc.select("div.cc a[href]");
for(int i=0;i<links.size();i++){
Element element = links.get(i);
final String dirUrl = "http://www.3lian.com"+element.attr("href");
log.info(dirUrl);
Thread.sleep(500);
new Thread(new Runnable() {
public void run() {
try {
Connection conn= Jsoup.connect(dirUrl);
Document doc = conn.get();
Elements images = doc.select("div.mb_jjnr img[src]");
for(int j=0;j<images.size();j++){
Element img = images.get(j);
String imgUrl = img.attr("src");
log.info(imgUrl);
save(imgUrl);
}
} catch (Exception e) {
e.printStackTrace();
}
}
}).start();
}
}
/**
* 处理帖子URL
* @param url
* @throws Exception
*/
static void go(String url) throws Exception {
// JSOP创建链接
Connection conn = Jsoup.connect(url);
// 请求返回整个文档对象
Document doc = conn.post();
// 选择所有class=zoom 的img标签对象
Elements imgs = doc.select("img[class=zoom]");
// 循环每个img标签
for (int i = 0; i < imgs.size(); i++) {
Element img = imgs.get(i);
// 取得图片的下载地址
String picURL = doc.baseUri() + img.attr("file");
log.info(picURL);
// 保存图片
save(picURL);
}
}
//<img src="static/image/common/none.gif" file="data/attachment/forum/201105/08/174412nz3jq4z90s33s2t0.jpg" width="770" class="zoom" onclick="zoom(this, this.src)" id="aimg_180565" onmouseover="showMenu({'ctrlid':this.id,'pos':'12'})" alt="img_src_29620.jpg" title="img_src_29620.jpg" />
//doc.select("img[class=zoom]")
/**
* 保存图片
* @param url
* @param i
* @throws Exception
*/
static void save(String url) throws Exception {
String fileName = url.substring(url.lastIndexOf("/"));
String filePath = PIC_DIR + "/" + fileName;
BufferedOutputStream out = null;
byte[] bit = getByte(url);
if (bit.length > 0) {
try {
out = new BufferedOutputStream(new FileOutputStream(filePath));
out.write(bit);
out.flush();
log.info("Create File success! [" + filePath + "]");
} finally {
if (out != null)
out.close();
}
}
}
/**
* 获取图片字节流
* @param uri
* @return
* @throws Exception
*/
static byte[] getByte(String uri) throws Exception {
HttpClient client = new DefaultHttpClient();
client.getParams().setParameter(CoreConnectionPNames.CONNECTION_TIMEOUT, TIME_OUT);
HttpGet get = new HttpGet(uri);
get.getParams().setParameter(CoreConnectionPNames.CONNECTION_TIMEOUT, TIME_OUT);
try {
HttpResponse resonse = client.execute(get);
if (resonse.getStatusLine().getStatusCode() == HttpStatus.SC_OK) {
HttpEntity entity = resonse.getEntity();
if (entity != null) {
return EntityUtils.toByteArray(entity);
}
}
} catch (Exception e) {
e.printStackTrace();
} finally {
client.getConnectionManager().shutdown();
}
return new byte[0];
}
public static void main(String[] args) throws Exception {
// 开始抓取图片
go2("http://www.3lian.com/gif/more/03/0301.html");
//go3("http://www.ivsky.com/tupian/nvxing_gouwu_qingjing_v6969/");
}
}
分享到:
相关推荐
jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jarjsoup-...
Android开发一大神器——Jsoup.pdf
基于SSM+maven+httpClient+jsoup实现小说网站项目源码.zip 基于SSM+maven+httpClient+jsoup实现小说网站项目源码.zip 基于SSM+maven+httpClient+jsoup实现小说网站项目源码.zip 基于SSM+maven+httpClient+jsoup实现...
在IT领域,网络数据抓取是一项重要的技能,它允许我们从网页中提取所需的信息,用于数据分析、内容聚合或自动化任务。HttpClient和Jsoup是两个Java库,分别专注于HTTP通信和HTML解析,它们常被组合使用来高效地抓取...
基于SSM+maven+httpClient+jsoup实现小说网站项目.zip基于SSM+maven+httpClient+jsoup实现小说网站项目.zip基于SSM+maven+httpClient+jsoup实现小说网站项目.zip基于SSM+maven+httpClient+jsoup实现小说网站项目.zip...
本篇文章将聚焦于如何利用jsoup库在Android平台上实现一个简单的网络爬虫,以起步一个名为“糗事百科”的项目。 Jsoup是一个Java库,设计用于处理实际世界的HTML。它提供了方便的API来解析、查找和修改HTML文档。在...
"org.jsoup.zip" 是一个与Java相关的压缩包文件,它包含了一个名为 "org.jsoup" 的开发包以及一些相关资源。这个开发包是用于处理HTML解析和提取数据的库,非常适用于网页抓取和数据挖掘任务。以下是关于org.jsoup库...
org.jsoup 架包
Jsoup+httpclient 模拟登录和抓取知识点: 1. Jsoup库使用介绍: - Jsoup是一个Java的HTML解析器,能够直接解析HTML文档,提供类似于jQuery的操作方法。 - 主要功能包括从URL、文件或字符串中解析HTML,使用DOM或...
标题中的“jsoup httpclient 爬取网页并下载google图标”揭示了这个项目或教程是关于使用Java的两个著名库——Jsoup和HttpClient,来实现网页抓取并下载特定资源,这里是Google的图标。Jsoup是一个用于处理实际世界...
在IT领域,网络爬虫是获取网页数据的重要手段,而HttpClient和Jsoup是两种常用的Java库,用于实现这一目的。HttpClient提供了低级别的HTTP通信能力,而Jsoup则是一个解析和操作HTML文档的强大工具。本教程将详细介绍...
Jsoup+httpclient模拟登陆和抓取页面.pdf
**JSoup库** ...通过JSoup和HTTPClient的结合使用,开发者可以轻松构建功能丰富的网页爬虫,满足数据抓取和分析的需求。在实际应用中,需要注意遵守网络规范,尊重网站规则,以及有效地管理和优化爬虫性能。
- **数据挖掘**:从网站上抓取结构化数据,如电商网站的商品价格、评论等。 - **搜索引擎**:构建小型搜索引擎,索引和搜索网页内容。 - **内容监测**:监控网站内容变化,例如检测价格变动或新内容发布。 - **自动...
《深入理解Java库:Jsoup解析与应用》 在Java编程世界中,Jsoup是一个非常重要的库,尤其在处理HTML文档和数据抓取时。标题中的"org.jsoup.jar"是Jsoup库的核心组件,它是Jsoup项目的二进制发布形式,包含了所有...
**Jsoup.jar 包及说明文档** Jsoup是一款在Java平台上广泛使用的HTML解析库,它的主要功能是解析HTML文档,并提供了强大的数据提取和操作能力。Jsoup的核心特性在于其能够模拟浏览器的行为,对HTML进行理解和解析,...
同时,描述中还提到了一个具体的例子——下载网站上的静态图片并按目标路径保存,这是一个涉及网络请求和文件操作的任务,通常需要结合Jsoup和额外的HTTP客户端库(如HttpURLConnection或OkHttp)来完成。...
赠送jar包:jsoup-1.14.3.jar; 赠送原API文档:jsoup-1.14.3-javadoc.jar; 赠送源代码:jsoup-1.14.3-sources.jar; 赠送Maven依赖信息文件:jsoup-1.14.3.pom; 包含翻译后的API文档:jsoup-1.14.3-javadoc-API...
**JSoup + HttpClient 简单爬虫** 在信息技术领域,数据抓取,或称“爬虫”,是一种自动化获取网页信息的技术。JavaScript Object Notation (JSON) Soup 和 HttpClient 是两个在Java开发中常用于实现爬虫功能的库。...
在本项目中,我们将深入探讨Jsoup的主要功能以及如何构建一个可运行的工程来提取网页上的所有链接。 **Jsoup库的介绍** Jsoup是由Jonas Bonér创建的,其目标是提供一种简单、直观的方式来解析HTML文档,类似于...