`
zhuyufufu
  • 浏览: 138782 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

html dom jsoup httpclient

阅读更多
xml dom 对大多数java程序员来说并不陌生,但是html dom可能就不是那么面善了。

jsoup 就是用来处理 html dom的一个组件。其与dom4j、xstream等xml dom组件类似。

jsoup加载完html文本生成document对象之后,用来操作dom的通用操作就可以使用了。如:getElementById、getElementsByName等。

代码:加载html文本为dom对象,获取id为username的元素的属性value的值
Document doc = Jsoup.parse(htmlString);
String username = doc.getElementById("username").attr("value");


另附上 httpclient jar包 jsoup jar包

httpclient设置头部参数,以及获取头部参数,设置消息体参数的代码:

httpclient设置头部参数
/**
	 * 设置请求头
	 * @param post
	 */
	private static void setHeaders(HttpPost post) {
		post.setHeader("Accept", "text/html, application/xhtml+xml, */*");
		post.setHeader("Accept-Language", "zh-CN");
		post.setHeader("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko");
		post.setHeader("Content-Type", "application/x-www-form-urlencoded");
		post.setHeader("Accept-Encoding", "gzip, deflate");
	
		post.setHeader("DNT", "1");
		post.setHeader("Connection", "Keep-Alive");
		post.setHeader("Cache-Control", "no-cache");
		post.setHeader("Cookie", Cookie);
	}
/**
	 * 设置请求头
	 * @param get
	 */
	private static void setHeaders(HttpGet get) {
		get.setHeader("Accept", "text/html, application/xhtml+xml, */*");
		get.setHeader("Accept-Language", "zh-CN");
		get.setHeader("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko");
		get.setHeader("Content-Type", "application/x-www-form-urlencoded");
		get.setHeader("Accept-Encoding", "gzip, deflate");
		
		get.setHeader("DNT", "1");
		get.setHeader("Connection", "Keep-Alive");
		get.setHeader("Cache-Control", "no-cache");
		get.setHeader("Cookie", Cookie);
	}


httpclient发送get请求
private static String getSessionId() throws IOException, Exception {
		HttpClient client = new DefaultHttpClient();
		HttpGet get = new HttpGet("http://url/");
		HttpResponse responsex = client.execute(get);
		Header[] headers = responsex.getAllHeaders();
		for (int i = 0; i < headers.length; i++) {
			Header header = headers[i];
			String name = header.getName();
			String value = header.getValue();
			if("Set-Cookie".equals(name)){
				String[] vals = value.split(";");
				for (int j = 0; j < vals.length; j++) {
					String val = vals[j];
					if(val.contains("ASP.NET_SessionId")){
						Cookie = val;
					}
				}
			}
		}
		if(!responsex.getStatusLine().toString().contains("HTTP/1.1 200 OK")){
			throw new RuntimeException("某某失败");
		}
		HttpEntity entityx = responsex.getEntity();
		String entityMsgx = EntityUtils.toString(entityx);
		//解析html dom 得到输入参数
		Document doc = Jsoup.parse(entityMsgx);
		resetAllParams();
		__VIEWSTATE = doc.getElementById("__VIEWSTATE").attr("value");
		__EVENTVALIDATION = doc.getElementById("__EVENTVALIDATION").attr("value");
		isOpen = doc.getElementById("isOpen").attr("value");
		btlogin = doc.getElementById("btlogin").attr("value");
		
		return Cookie;
	}


发送post请求
/**
	 * 登录
	 * @param username
	 * @param password
	 * @throws IOException
	 * @throws Exception
	 */
	public static boolean login(String username, String password) throws IOException, Exception {
		//先访问首页获取sessionid
		getSessionId();
		//执行登陆过程
		HttpClient client = new DefaultHttpClient();
		HttpPost post = new HttpPost("http://loginurl");
		post.setHeader("Referer", "http://loginurl");
		setHeaders(post);
		
		// 登录表单的信息
		List<NameValuePair> qparams = new ArrayList<NameValuePair>();
		qparams.add(new BasicNameValuePair("__VIEWSTATE", __VIEWSTATE));
		qparams.add(new BasicNameValuePair("__EVENTVALIDATION", __EVENTVALIDATION));
		qparams.add(new BasicNameValuePair("isOpen", isOpen));
		qparams.add(new BasicNameValuePair("Text1", username));
		qparams.add(new BasicNameValuePair("Password1", password));
		qparams.add(new BasicNameValuePair("btlogin", btlogin));

		UrlEncodedFormEntity params = new UrlEncodedFormEntity(qparams, "utf-8");
		post.setEntity(params);
		// 相当于按了下确定登录的按钮,也就是浏览器调转了
		HttpResponse response = client.execute(post);
		if(!response.getStatusLine().toString().contains("HTTP/1.1 200 OK")){
			throw new RuntimeException("离校系统登陆失败");
		}
		
		HttpEntity entity = response.getEntity();
		String entityMsg = EntityUtils.toString(entity);
		if(entityMsg.contains("该用户不存在或用户名密码错误")){
			throw new RuntimeException("该用户不存在或用户名密码错误");
		}
		return true;
	}
分享到:
评论

相关推荐

    jsoup+httpclient+jar包

    HttpClient与JSoup结合使用,可以实现更高级的网页访问和数据获取。 **结合使用JSoup和HTTPClient** 将JSoup与HTTPClient结合,可以创建一个高效且灵活的网页爬虫。首先,HTTPClient负责发起HTTP请求,获取网页的...

    jsoup+httpclient j简单爬虫

    JSoup 将网页内容解析为一个复杂的 DOM 树结构,使得开发者可以通过 CSS 选择器或者直接的节点遍历来查找、提取和修改数据。 例如,要从一个网页中抓取所有的段落(`&lt;p&gt;` 标签),你可以使用以下 JSoup 代码: ```...

    jsoup+httpclient

    JSoup与HttpClient是Java开发中常用的两个库,分别用于处理HTML文档解析和网络请求。在本教程中,我们将深入探讨这两个工具,并了解如何结合使用它们来实现对视频网站的爬虫功能。 **1. JSoup:Java HTML解析器** ...

    java爬虫需要的jsoup包和httpclient包.rar

    在这个压缩包文件中,包含了两个关键的库:Jsoup和Httpclient,它们是Java爬虫开发中常用的工具。 **Jsoup** 是一个Java库,设计用于处理实际世界的HTML。它提供了非常方便的API,用于提取和操作数据,使用DOM、CSS...

    httpClient采集jsoup解析

    Jsoup是一个强大的HTML解析库,可以解析HTML文档并提供一个友好的DOM API,类似于jQuery,使得我们可以方便地提取和操作HTML元素。它支持CSS选择器、HTML实体解码、链接处理等特性。例如,以下代码展示了如何用Jsoup...

    Jsoup+httpclient 模拟登陆和抓取

    Jsoup+httpclient 模拟登录和抓取知识点: 1. Jsoup库使用介绍: - Jsoup是一个Java的HTML解析器,能够直接解析HTML文档,提供类似于jQuery的操作方法。 - 主要功能包括从URL、文件或字符串中解析HTML,使用DOM或...

    httpClient+jsoup 抓取网页数据

    Jsoup是一个强大的Java库,设计用于解析HTML并提供类似于DOM、CSS和jQuery的API进行操作。它可以帮助我们方便地提取和修改HTML文档的数据。 3. **Jsoup的常用功能**: - 解析HTML:使用Jsoup.parse()方法可以将...

    Jsoup1.11.1+HTTPClient4.5.3的最新全部jar包

    Jsoup和HTTPClient是Java开发中常用的两个库,它们分别用于处理HTML解析和网络请求。 首先,Jsoup是一个Java库,设计用于提取和操作结构化的HTML数据。它提供了类似于jQuery的API,使得开发者可以方便地查找、遍历...

    HttpClient和jsoup架包

    Jsoup库则通过提供类似于DOM的API,使得处理HTML文档变得简单。它可以解析HTML,查找并提取数据,甚至可以修改文档结构。例如,以下代码展示了如何使用Jsoup连接到一个网站并获取页面标题: ```java Document doc =...

    HttpClient Jsoup爬取天气预报

    这篇博客“HttpClient Jsoup爬取天气预报”可能讲述了如何结合这两者来获取并解析网页上的天气预报信息。 首先,HttpClient允许开发者发送各种HTTP请求(如GET、POST等)到服务器,并接收响应。在爬虫应用中,通常...

    httpClient和jsoup整合,支持 HTTP 协议的客户端编程工具包

    在Java开发中,HttpClient和Jsoup是两个非常重要的库,分别用于处理HTTP协议的客户端请求和解析HTML内容。本文将详细介绍如何将HttpClient与Jsoup整合,以便在进行网络请求时获取并解析网页数据。 HttpClient是...

    httpClient+jsoup抓取网页数据实例和jar包

    HttpClient提供了低级别的HTTP通信能力,而Jsoup则是一个解析和操作HTML文档的强大工具。本教程将详细介绍如何结合使用HttpClient与Jsoup来抓取和处理网页数据。 HttpClient是Apache基金会开发的一个开放源代码库,...

    Jsoup解析Html获取新闻列表

    - Jsoup是由Jonathon Hedley开发的开源库,它实现了HTML5的DOM解析器,并提供了CSS选择器和类似于jQuery的操作API。 - 这个库的主要功能包括:解析HTML,提取结构化数据,修改HTML文档,以及进行HTML清理。 2. **...

    Java爬虫【一篇文章精通系列-案例开发-巨细】HttpClient5 + jsoup + WebMagic + spider

    本篇文章以"一篇文章精通系列-案例开发-巨细"为主题,详细介绍了如何使用HttpClient5、jsoup、WebMagic以及spider-flow这四个关键工具来构建一个强大的Java爬虫系统。以下是对这些工具和技术的深入解析。 首先,...

    HttpClient ,jsoup和 HtmlParser ,htmllexer实现简易爬虫用到的jar包

    总的来说,HttpClient负责网络通信,jsoup处理HTML内容,而HtmlParser和htmllexer则用于更精细的HTML解析工作。了解和掌握这些库的使用,对于提升Java爬虫的开发效率和质量至关重要。在实践中,根据具体需求选择合适...

    HttpClient + Jsoup 模拟登陆,解析HTML,信息筛选(广工图书馆)

    Jsoup能帮助我们提取和操作数据,如查找特定标签、提取文本、修改DOM结构等,是网页数据抓取和信息筛选的理想选择。 以下是一个简单的使用HttpClient和Jsoup模拟登录广工图书馆网站的步骤: 1. **获取登录页面**:...

    HTML解析器 jsoup资料

    jsoup模仿了浏览器的行为,能够解析HTML文档,提取结构化数据,并可以执行DOM操作。在这个资料包中,你可能会找到关于如何使用jsoup进行网页抓取、解析和清洗的详细教程、示例代码和相关文档。 1. **HTML解析** - ...

    java爬虫jsoup包

    2. **DOM操作**:如同XML DOM,Jsoup允许开发者通过Element、Node等接口访问和修改HTML结构。例如,可以使用`element.tagName()`获取元素标签,`element.text()`获取元素文本,`element.attr(attributeName)`获取...

    针对 httpclient4.* 绕验证码获取公司信息 包括 jsoup网页信息的爬虫及htmlUnit对动态网站信息的抓取

    本主题主要关注如何使用`httpclient4.*`库来绕过验证码获取公司信息,以及结合`jsoup`解析静态网页信息和`htmlUnit`处理动态网站的抓取。以下是对这些知识点的详细说明: 1. **httpclient4.***: Apache HttpClient...

Global site tag (gtag.js) - Google Analytics