import java.io.File; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; import java.net.HttpURLConnection; import java.net.MalformedURLException; import java.net.URL; /** * URL链接,下载所访问的网页 */ public class UrlConnection { public static void main(String[] args) { //URL地址数组 String[] urls = new String[]{"http://991690137.iteye.com/blog/1946378", "http://991690137.iteye.com/blog/1946173","http://991690137.iteye.com/blog/1946149", "http://991690137.iteye.com/blog/1946149","http://991690137.iteye.com/blog/1946119", "http://991690137.iteye.com/blog/1946123","http://991690137.iteye.com/blog/1946133", "http://991690137.iteye.com/blog/1944394","http://991690137.iteye.com/blog/1944245", "http://991690137.iteye.com/blog/1942772","http://991690137.iteye.com/blog/1942767", "http://991690137.iteye.com/blog/1942736","http://991690137.iteye.com/blog/1942736", "http://991690137.iteye.com/blog/1942717"}; //遍历数组 for(int i=0;i<urls.length;i++){ //循环访问100次 for(int j=1;j<100;j++){ System.out.println("beging..."); //将访问的网页下载并保存在L:/html/indexn.html DownLoadPages(urls[i],"L:/html/index"+i+".html"); System.out.println("end."); try { //每次访问休息1.5s,目的是减轻所访问网页所在服务器的压力,再者访问过快会导致很多意想不到的问题 Thread.sleep(1500); } catch (InterruptedException e) { e.printStackTrace(); } } } } /** * 下载网页 或 文件 * @param urlStr 网页地址 比如: http://www.163.com * @param outPath 文件输出路径 */ public static void DownLoadPages(String urlStr, String outPath) { /** 读入的输入流是字节流 * chByte是读入的每个字节所转成int类型的表示 * */ int chByte = 0; /** 网络的url地址 */ URL url = null; /** http连接 */ HttpURLConnection httpConn = null; /** 输入流 */ InputStream in = null; /** 文件输出流 */ FileOutputStream out = null; try { url = new URL(urlStr); httpConn = (HttpURLConnection) url.openConnection(); HttpURLConnection.setFollowRedirects(true); httpConn.setRequestMethod("GET"); httpConn.setRequestProperty("User-Agent","Mozilla/4.0 (compatible; MSIE 6.0; Windows 2000)"); in = httpConn.getInputStream(); out = new FileOutputStream(new File(outPath)); chByte = in.read(); while (chByte != -1) { out.write(chByte); chByte = in.read(); } } catch (MalformedURLException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } finally { try { out.close(); in.close(); httpConn.disconnect(); } catch (Exception ex) { ex.printStackTrace(); } } } }
相关推荐
在Java编程语言中,访问网页是一项基本操作,通常用于数据抓取、自动化测试或网络通信。本篇文章将详细讲解如何使用Java的内置类`java.net.URL`和相关API来实现这个功能。 首先,我们需要理解`URL`(Uniform ...
综上所述,Java禁止直接URL访问图片涉及多个方面,包括Web服务器配置、Java Servlet、权限验证、过滤器、防盗链技术以及CDN的使用等,这些都需要开发者深入理解和灵活运用。通过这些手段,我们可以有效地保护网络...
在Java编程环境中,将一个URL链接的内容转换为PDF文件是一个常见的需求,这通常涉及到网络请求、HTML解析以及PDF生成等多个步骤。以下是一个详细的步骤指南,涵盖了这个过程中的关键知识点: 首先,我们需要处理URL...
`ImageDownload.java`可能是实现具体下载逻辑的主程序,它负责初始化URL连接,计算文件分块,创建并启动下载线程,以及最后的合并操作。在下载完成后,还需要检查各个线程是否正确完成了任务,并合并所有部分到单一...
在Java编程中,访问HTTPS网址并下载文件是一个常见的任务,特别是在网络应用开发中。HTTPS(HyperText Transfer Protocol Secure)是一种安全通信协议,用于确保数据在客户端和服务器之间的传输过程是加密的,保护了...
Java URL下载器是一种实用工具,它允许用户从指定的URL抓取并下载文件。这个实例是基于Java编程语言实现的,特别强调了多线程技术,以提高下载速度和效率。下面将详细介绍这个下载器的工作原理、核心概念以及如何...
### 使用Java快速判断网页链接是否有效 在互联网应用开发中,经常会遇到需要验证网页链接有效性的情况。例如,在爬虫程序中需要确保所抓取的链接是有效的,或者是在网站维护过程中检查外部链接的有效性等。本文将...
综上所述,通过Java的HttpClient库,可以在Eclipse环境中编写程序,实现从指定URL下载文件到本地的功能。通过理解HttpClient的工作原理和提供的API,开发者可以构建出稳定、高效的文件下载解决方案。
在Java编程中,有时我们需要实现一个功能,即通过程序控制打开本地已安装的浏览器并访问特定的URL地址。这在很多场景下都很有用,比如自动化测试、应用内部的链接跳转或者用户指南等。本篇将详细介绍如何使用Java来...
总之,Java URL是网络编程的核心工具,它提供了访问和操作互联网资源的能力。深入理解其工作原理和使用方法,对于开发涉及网络交互的应用程序至关重要。无论是在简单的网页抓取还是复杂的Web服务通信中,Java URL...
在Java开发中,将图片上传到服务器并返回可下载的URL是常见的功能需求,尤其在Web应用中。这里我们将详细探讨实现这一功能的关键步骤和技术点。 首先,客户端(通常是前端应用)需要通过HTTP请求将图片文件发送到...
在Java编程中,访问HTTPS网址并下载文件是一个常见的任务,特别是在需要安全传输敏感数据或确保数据完整性时。这里我们将深入探讨如何使用Java 1.7版本处理这一过程,包括处理SSL证书。 首先,理解HTTPS(超文本...
本教程将详细介绍如何在Java中使用URL进行网页内容的下载。 首先,我们需要了解`java.net.URL`类,它是Java标准库提供的用于处理URL的对象。创建一个URL对象通常涉及以下步骤: ```java import java.net.URL; URL...
Java URL转换工具是一种用于解析和处理URL的程序,它能够帮助开发者获取URL背后的真实地址,尤其是在面对重定向、参数编码等情况时。在Web开发中,URL(Uniform Resource Locator)是互联网资源的统一地址,它包含了...
### JAVA验证URL是否有效连接的方法 #### 背景与目的 在进行远程服务器或Web应用的监控时,经常会遇到需要验证某个URL是否能够成功访问的情况。这不仅可以用于监测服务的健康状态,还可以帮助开发者及时发现并处理...
JAVA解决URL路径中含有中文的问题。无论是路径中还是文件名包含中文都可以处理。经测试验证通过。
Java获取百度网盘真实下载链接的方法涉及到网络编程和解析网页数据的技术,主要步骤包括发送HTTP请求、解析HTML页面以及提取所需信息。以下是对这个过程的详细说明: 首先,要获取百度网盘的真实下载链接,我们需要...
首先,Java中的`java.net.URL`类是用于表示统一资源定位符(URL)的对象,它是访问互联网资源的入口。通过创建URL对象,可以获取到与该URL关联的信息,如主机名、端口号等,并且可以通过`openConnection()`方法建立...
通过以上知识点的结合应用,我们可以编写一个Java程序,根据`info.txt`中的URL列表下载网页,并按照`name.txt`指定的名称保存到本地。在实际项目中,还可能需要添加错误处理、进度显示、断点续传等功能,以提升用户...
综上所述,"GetURL.java"文件可能包含从一个网页中获取所有URL的基本步骤,包括建立URL对象,发送HTTP请求,解析返回的HTML,以及处理异常。这只是一个简单的起点,实际的网络爬虫系统可能还需要处理更复杂的情况,...