2011.06.29——— Jsoup HttpClient 抓取网络上的图片
参考:
http://www.iteye.com/topic/1106648
http://www.ibm.com/developerworks/cn/java/j-lo-jsouphtml/index.html?ca=drs-
jsoup 官方网站:
http://jsoup.org
需要的主要jar包
httpclient-4.0.1jar jsoup-1.5.2.jar
主要代码 如下
Exmaple3.java
package com.th.spider.test;
import java.io.BufferedOutputStream;
import java.io.FileOutputStream;
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.apache.http.HttpEntity;
import org.apache.http.HttpResponse;
import org.apache.http.HttpStatus;
import org.apache.http.client.HttpClient;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.DefaultHttpClient;
import org.apache.http.params.CoreConnectionPNames;
import org.apache.http.util.EntityUtils;
import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class Exmaple3 {
private static final Log log = LogFactory.getLog(Exmaple3.class);
/**
* 抓取图片存放目录
*/
private static final String PIC_DIR = "/home/li/pic";
/**
* 链接超时
*/
private static final int TIME_OUT = 5000;
static void go3(String url) throws Exception {
Connection conn= Jsoup.connect(url);
Document doc = conn.get();
Elements links = doc.select("div.piclist img[src]");
for(int i=0;i<links.size();i++){
Element element = links.get(i);
final String imgUrl = element.attr("src");
log.info(imgUrl);
Thread.sleep(500);
new Thread(new Runnable() {
public void run() {
try {
save(imgUrl);
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
}).start();
}
}
static void go2(String url) throws Exception {
Connection conn= Jsoup.connect(url);
Document doc = conn.get();
Elements links = doc.select("div.cc a[href]");
for(int i=0;i<links.size();i++){
Element element = links.get(i);
final String dirUrl = "http://www.3lian.com"+element.attr("href");
log.info(dirUrl);
Thread.sleep(500);
new Thread(new Runnable() {
public void run() {
try {
Connection conn= Jsoup.connect(dirUrl);
Document doc = conn.get();
Elements images = doc.select("div.mb_jjnr img[src]");
for(int j=0;j<images.size();j++){
Element img = images.get(j);
String imgUrl = img.attr("src");
log.info(imgUrl);
save(imgUrl);
}
} catch (Exception e) {
e.printStackTrace();
}
}
}).start();
}
}
/**
* 处理帖子URL
* @param url
* @throws Exception
*/
static void go(String url) throws Exception {
// JSOP创建链接
Connection conn = Jsoup.connect(url);
// 请求返回整个文档对象
Document doc = conn.post();
// 选择所有class=zoom 的img标签对象
Elements imgs = doc.select("img[class=zoom]");
// 循环每个img标签
for (int i = 0; i < imgs.size(); i++) {
Element img = imgs.get(i);
// 取得图片的下载地址
String picURL = doc.baseUri() + img.attr("file");
log.info(picURL);
// 保存图片
save(picURL);
}
}
//<img src="static/image/common/none.gif" file="data/attachment/forum/201105/08/174412nz3jq4z90s33s2t0.jpg" width="770" class="zoom" onclick="zoom(this, this.src)" id="aimg_180565" onmouseover="showMenu({'ctrlid':this.id,'pos':'12'})" alt="img_src_29620.jpg" title="img_src_29620.jpg" />
//doc.select("img[class=zoom]")
/**
* 保存图片
* @param url
* @param i
* @throws Exception
*/
static void save(String url) throws Exception {
String fileName = url.substring(url.lastIndexOf("/"));
String filePath = PIC_DIR + "/" + fileName;
BufferedOutputStream out = null;
byte[] bit = getByte(url);
if (bit.length > 0) {
try {
out = new BufferedOutputStream(new FileOutputStream(filePath));
out.write(bit);
out.flush();
log.info("Create File success! [" + filePath + "]");
} finally {
if (out != null)
out.close();
}
}
}
/**
* 获取图片字节流
* @param uri
* @return
* @throws Exception
*/
static byte[] getByte(String uri) throws Exception {
HttpClient client = new DefaultHttpClient();
client.getParams().setParameter(CoreConnectionPNames.CONNECTION_TIMEOUT, TIME_OUT);
HttpGet get = new HttpGet(uri);
get.getParams().setParameter(CoreConnectionPNames.CONNECTION_TIMEOUT, TIME_OUT);
try {
HttpResponse resonse = client.execute(get);
if (resonse.getStatusLine().getStatusCode() == HttpStatus.SC_OK) {
HttpEntity entity = resonse.getEntity();
if (entity != null) {
return EntityUtils.toByteArray(entity);
}
}
} catch (Exception e) {
e.printStackTrace();
} finally {
client.getConnectionManager().shutdown();
}
return new byte[0];
}
public static void main(String[] args) throws Exception {
// 开始抓取图片
go2("http://www.3lian.com/gif/more/03/0301.html");
//go3("http://www.ivsky.com/tupian/nvxing_gouwu_qingjing_v6969/");
}
}
分享到:
相关推荐
jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jar,jsoup-1.15.3.jarjsoup-...
Android开发一大神器——Jsoup.pdf
基于SSM+maven+httpClient+jsoup实现小说网站项目源码.zip 基于SSM+maven+httpClient+jsoup实现小说网站项目源码.zip 基于SSM+maven+httpClient+jsoup实现小说网站项目源码.zip 基于SSM+maven+httpClient+jsoup实现...
在IT领域,网络数据抓取是一项重要的技能,它允许我们从网页中提取所需的信息,用于数据分析、内容聚合或自动化任务。HttpClient和Jsoup是两个Java库,分别专注于HTTP通信和HTML解析,它们常被组合使用来高效地抓取...
基于SSM+maven+httpClient+jsoup实现小说网站项目.zip基于SSM+maven+httpClient+jsoup实现小说网站项目.zip基于SSM+maven+httpClient+jsoup实现小说网站项目.zip基于SSM+maven+httpClient+jsoup实现小说网站项目.zip...
本篇文章将聚焦于如何利用jsoup库在Android平台上实现一个简单的网络爬虫,以起步一个名为“糗事百科”的项目。 Jsoup是一个Java库,设计用于处理实际世界的HTML。它提供了方便的API来解析、查找和修改HTML文档。在...
"org.jsoup.zip" 是一个与Java相关的压缩包文件,它包含了一个名为 "org.jsoup" 的开发包以及一些相关资源。这个开发包是用于处理HTML解析和提取数据的库,非常适用于网页抓取和数据挖掘任务。以下是关于org.jsoup库...
org.jsoup 架包
Jsoup+httpclient 模拟登录和抓取知识点: 1. Jsoup库使用介绍: - Jsoup是一个Java的HTML解析器,能够直接解析HTML文档,提供类似于jQuery的操作方法。 - 主要功能包括从URL、文件或字符串中解析HTML,使用DOM或...
标题中的“jsoup httpclient 爬取网页并下载google图标”揭示了这个项目或教程是关于使用Java的两个著名库——Jsoup和HttpClient,来实现网页抓取并下载特定资源,这里是Google的图标。Jsoup是一个用于处理实际世界...
在IT领域,网络爬虫是获取网页数据的重要手段,而HttpClient和Jsoup是两种常用的Java库,用于实现这一目的。HttpClient提供了低级别的HTTP通信能力,而Jsoup则是一个解析和操作HTML文档的强大工具。本教程将详细介绍...
Jsoup+httpclient模拟登陆和抓取页面.pdf
**JSoup库** ...通过JSoup和HTTPClient的结合使用,开发者可以轻松构建功能丰富的网页爬虫,满足数据抓取和分析的需求。在实际应用中,需要注意遵守网络规范,尊重网站规则,以及有效地管理和优化爬虫性能。
- **数据挖掘**:从网站上抓取结构化数据,如电商网站的商品价格、评论等。 - **搜索引擎**:构建小型搜索引擎,索引和搜索网页内容。 - **内容监测**:监控网站内容变化,例如检测价格变动或新内容发布。 - **自动...
《深入理解Java库:Jsoup解析与应用》 在Java编程世界中,Jsoup是一个非常重要的库,尤其在处理HTML文档和数据抓取时。标题中的"org.jsoup.jar"是Jsoup库的核心组件,它是Jsoup项目的二进制发布形式,包含了所有...
**Jsoup.jar 包及说明文档** Jsoup是一款在Java平台上广泛使用的HTML解析库,它的主要功能是解析HTML文档,并提供了强大的数据提取和操作能力。Jsoup的核心特性在于其能够模拟浏览器的行为,对HTML进行理解和解析,...
赠送jar包:jsoup-1.14.3.jar; 赠送原API文档:jsoup-1.14.3-javadoc.jar; 赠送源代码:jsoup-1.14.3-sources.jar; 赠送Maven依赖信息文件:jsoup-1.14.3.pom; 包含翻译后的API文档:jsoup-1.14.3-javadoc-API...
同时,描述中还提到了一个具体的例子——下载网站上的静态图片并按目标路径保存,这是一个涉及网络请求和文件操作的任务,通常需要结合Jsoup和额外的HTTP客户端库(如HttpURLConnection或OkHttp)来完成。...
在这个项目中,我们使用Jsoup配合Java,实现了抓取整个网站的功能,包括其中的图片、CSS样式表和JavaScript文件。通过这样的工具,我们可以对网页进行离线浏览或者备份,甚至进行数据分析。 首先,我们要理解Jsoup...
**JSoup + HttpClient 简单爬虫** 在信息技术领域,数据抓取,或称“爬虫”,是一种自动化获取网页信息的技术。JavaScript Object Notation (JSON) Soup 和 HttpClient 是两个在Java开发中常用于实现爬虫功能的库。...