<?php
//获取所有内容url保存到文件
function get_index($save_file, $prefix="index_"){
$count = 68;
$i = 1;
if (file_exists($save_file)) @unlink($save_file);
$fp = fopen($save_file, "a+") or die("Open ". $save_file ." failed");
while($i<$count){
$url = $prefix . $i .".htm";
echo "Get ". $url ."...";
$url_str = get_content_url(get_url($url));
echo " OK\n";
fwrite($fp, $url_str);
++$i;
}
fclose($fp);
}
//获取目标多媒体对象
function get_object($url_file, $save_file, $split="|--:**:--|"){
if (!file_exists($url_file)) die($url_file ." not exist");
$file_arr = file($url_file);
if (!is_array($file_arr) || empty($file_arr)) die($url_file ." not content");
$url_arr = array_unique($file_arr);
if (file_exists($save_file)) @unlink($save_file);
$fp = fopen($save_file, "a+") or die("Open save file ". $save_file ." failed");
foreach($url_arr as $url){
if (empty($url)) continue;
echo "Get ". $url ."...";
$html_str = get_url($url);
echo $html_str;
echo $url;
exit;
$obj_str = get_content_object($html_str);
echo " OK\n";
fwrite($fp, $obj_str);
}
fclose($fp);
}
//遍历目录获取文件内容
function get_dir($save_file, $dir){
$dp = opendir($dir);
if (file_exists($save_file)) @unlink($save_file);
$fp = fopen($save_file, "a+") or die("Open save file ". $save_file ." failed");
while(($file = readdir($dp)) != false){
if ($file!="." && $file!=".."){
echo "Read file ". $file ."...";
$file_content = file_get_contents($dir . $file);
$obj_str = get_content_object($file_content);
echo " OK\n";
fwrite($fp, $obj_str);
}
}
fclose($fp);
}
//获取指定url内容
function get_url($url){
$reg = '/^http:\/\/[^\/].+$/';
if (!preg_match($reg, $url)) die($url ." invalid");
$fp = fopen($url, "r") or die("Open url: ". $url ." failed.");
while($fc = fread($fp, 8192)){
$content .= $fc;
}
fclose($fp);
if (empty($content)){
die("Get url: ". $url ." content failed.");
}
return $content;
}
//使用socket获取指定网页
function get_content_by_socket($url, $host){
$fp = fsockopen($host, 80) or die("Open ". $url ." failed");
$header = "GET /".$url ." HTTP/1.1\r\n";
$header .= "Accept: */*\r\n";
$header .= "Accept-Language: zh-cn\r\n";
$header .= "Accept-Encoding: gzip, deflate\r\n";
$header .= "User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; Maxthon; InfoPath.1; .NET CLR 2.0.50727)\r\n";
$header .= "Host: ". $host ."\r\n";
$header .= "Connection: Keep-Alive\r\n";
//$header .= "Cookie: cnzz02=2; rtime=1; ltime=1148456424859; cnzz_eid=56601755-\r\n\r\n";
$header .= "Connection: Close\r\n\r\n";
fwrite($fp, $header);
while (!feof($fp)) {
$contents .= fgets($fp, 8192);
}
fclose($fp);
return $contents;
}
//获取指定内容里的url
function get_content_url($host_url, $file_contents){
//$reg = '/^(#|javascript.*?|ftp:\/\/.+|http:\/\/.+|.*?href.*?|play.*?|index.*?|.*?asp)+$/i';
//$reg = '/^(down.*?\.html|\d+_\d+\.htm.*?)$/i';
$rex = "/([hH][rR][eE][Ff])\s*=\s*['\"]*([^>'\"\s]+)[\"'>]*\s*/i";
$reg = '/^(down.*?\.html)$/i';
preg_match_all ($rex, $file_contents, $r);
$result = ""; //array();
foreach($r as $c){
if (is_array($c)){
foreach($c as $d){
if (preg_match($reg, $d)){ $result .= $host_url . $d."\n"; }
}
}
}
return $result;
}
//获取指定内容中的多媒体文件
function get_content_object($str, $split="|--:**:--|"){
$regx = "/href\s*=\s*['\"]*([^>'\"\s]+)[\"'>]*\s*(<b>.*?<\/b>)/i";
preg_match_all($regx, $str, $result);
if (count($result) == 3){
$result[2] = str_replace("<b>多媒体: ", "", $result[2]);
$result[2] = str_replace("</b>", "", $result[2]);
$result = $result[1][0] . $split .$result[2][0] . "\n";
}
return $result;
}
?>
<?php
//PHP 访问网页
$page = '';
$handler = fopen('http://www.baidu.com','r');
while(!feof($handler)){
$page.=fread($handler,1048576);
}
fclose($handler);
echo $page;
?>
2:判断这个页面是否是报错页面
<?php
/**
* $host 服务器地址
* $get 请求页面
*
*/
function getHttpStatus($host,$get="") {
$fp = fsockopen($host, 80);
if (!$fp) {
$res= -1;
} else {
fwrite($fp, "GET /".$get." HTTP/1.0\r\n\r\n");
stream_set_timeout($fp, 2);
$res = fread($fp, 128);
$info = stream_get_meta_data($fp);
fclose($fp);
if ($info['timed_out']) {
$res=0;
} else {
$res= substr($res,9,3);
}
}
return $res;
}
$good=array("200","302");
if(in_array(getHttpStatus("5y.nuc.edu.cn","/"),$good)) {
echo "正常";
} else {
echo getHttpStatus("5y.nuc.edu.cn","/");
}
if(in_array(getHttpStatus("5y.nuc.edu.cn","/error.php"),$good)) {
echo "正常";
} else {
echo getHttpStatus("5y.nuc.edu.cn","/error.php");
}
?>
返回
第一个返回"正常"
第二个不存在返回"404"
function getHttpStatus($host,$get="") {
//访问网页 获得服务器状态码
$fp = fsockopen($host, 80);
if (!$fp) {
$res= -1;
} else {
fwrite($fp, "GET /".$get." HTTP/1.0\r\n\r\n");
stream_set_timeout($fp, 2);
$res = fread($fp, 128);
$info = stream_get_meta_data($fp);
fclose($fp);
if ($info['timed_out']) {
$res=0;
} else {
$res= substr($res,9,3);
}
}
return $res;
}
echo getHttpStatus("5y.nuc.edu.cn","/");
echo getHttpStatus("community.csdn.net","Expert/topic/4758/4758574.xml?temp=.1661646");
返回
1 无法连接服务器
0 超时
200 OK (成功返回)
302 Found (找到)
404 没有找到
...
<?php
//遍历所有网页 ($type指定类型)
function getAllPage($path="./",$type=array("html","htm")) {
global $p;
if ($handle = opendir($path)) {
while (false !== ($file = readdir($handle))) {
if(is_dir($file) && $file!="." && $file!="..") {
getAllPage($path.$file."/",$type);
} else {
$ex=array_pop(explode(".",$file));
if(in_array(strtolower($ex),$type)) {
array_push($p, $path.$file);
}
}
}
closedir($handle);
}
}
$p=array();
getAllPage("./");
echo "<pre>";
print_r($p);
echo "</pre>";
?>
<?php
//抓取页面内容中所有URL。
$str='<a href="http://blog.csdn.net/love01px/archive/2006/05/30/1.asp" Title = "permalink"><a href="http://blog.csdn.net/love01px/archive/2006/05/30/2.php" Title = "permalink"><a href="http://blog.csdn.net/love01px/archive/2006/05/30/3.php" Title = "permalink"><a href="/2006/05/30/4.php" Title = "permalink"><a href="http://blog.csdn.net/love01px/archive/2006/05/30/5.php" Title = "permalink">2006年05月30日 15:13:00</a> | <a href="http://blog.csdn.net/love01px/archive/2006/05/30/6.php?id=1" Title = "comments, pingbacks, trackbacks">评论 (0)</a>';
preg_match_all("/href=\"([^\"]*\.*php[^\"]*)\"/si",$str,$m);
//换用下面这个获取所有类型URL
//preg_match_all("/href=\"([^\"]*)\"/si",$str,$m);
print_r($m[1]);
?>
包含在链接里带get参数的地址
<?php
$str=file_get_contents("http://www.php.net");
preg_match_all("/href=\"([^\"]*\.*php\?[^\"]*)\"/si",$str,$m);
print_r($m[1]);
?>
分享到:
相关推荐
php网页分析内容抓取爬虫文件分析 好用实用
在IT行业中,网络爬虫是一种常见的技术,用于自动地抓取网页信息。在这个场景中,我们关注的是一个基于PHP编写的简单纸黄金实时报价抓取爬虫源代码。纸黄金,又称账户黄金或虚拟黄金,是一种投资产品,投资者可以...
PHPQuery允许开发者通过类似于jQuery的语法来选择、操作和分析HTML或XML文档,从而在后端对网页内容进行提取和处理。 **1. 抓取网页内容** 在互联网世界中,数据无处不在,但并非总以易于访问的形式存在。PHPQuery...
PHP爬虫是一种使用PHP编程语言编写的应用程序,它能够自动浏览互联网上的网页,抓取所需信息。在这个名为"phpspider-master"的压缩包中,包含了一个PHP爬虫的示例项目,可以帮助我们理解并学习如何在PHP中实现网络...
根据需求,提取到的数据可能需要存储到数据库、文本文件或JSON格式。例如,如果抓取的是文章内容,可以使用MySQL进行存储。 ```php <?php $mysqli = new mysqli('localhost', 'username', 'password', 'database');...
在IT行业中,网络爬虫是一种常见的数据采集工具,它能够自动地遍历互联网上的网页,提取所需信息。在这个场景中,我们关注的是一个使用PHP语言编写的多线程爬虫,该爬虫能够高效地抓取50万条数据。下面我们将详细...
PHP编写的网页小偷程序是一种常见的网页数据抓取工具,它能够自动地从目标网站抓取HTML内容,并在本地生成相应的HTML文件。这样的程序对于数据分析、网站备份、内容聚合等场景非常有用。以下是对这个话题的详细解释...
【描述】中的"PHP实例开发源码—Google php网页搜索爬虫.zip"进一步确认了这是一个基于PHP的项目,主要功能是模拟用户在Google搜索引擎上的查询行为,抓取并分析搜索结果。这种爬虫通常会遵循特定的规则,例如模拟...
【标题】"基于PHP的Google php网页搜索爬虫"是一个项目,它利用PHP语言来实现对Google搜索引擎的网页抓取功能。在这个项目中,开发者可能使用了PHP的网络请求库,如cURL或Guzzle,来模拟用户行为,发送HTTP请求到...
爬虫是自动化抓取互联网信息的程序,常用于数据分析、搜索引擎索引等场景。 【描述】"自制的一个简单的PHP爬虫,有从搭建服务器环境到程序完成的整个过程"指出,此资源不仅包含了爬虫的源代码,还可能涉及如何在...
爬虫程序是一种自动化工具,用于遍历互联网并获取特定网站的数据,它可以模拟用户行为,按照一定的规则抓取网页内容,然后进行解析和存储。 【标签】"php"直接指出了这个项目的编程语言基础,即PHP。这意味着开发者...
网络爬虫是自动浏览互联网并抓取网页内容的程序,通常用于搜索引擎的索引构建。它们遵循HTML链接,抓取页面信息,并将其存储在搜索引擎的数据库中。而PHP抓虫助手就是用来追踪这些爬虫活动的工具。 在PHP中实现抓虫...
爬虫技术是网络数据挖掘的重要手段,它能够自动化地从网页中提取大量数据,为数据分析、内容聚合或搜索引擎优化提供支持。 PHP是一种广泛使用的开源脚本语言,尤其适用于Web开发。在这个项目中,PHP被用作后端处理...
【PHP网页抓取小偷程序】是一种用于自动化获取远程网页内容并将其存储到数据库的应用程序。这个程序通常由几个关键组件组成,包括处理命令的`command.php`、展示用户界面的`index.php`、实际执行抓取任务的`get.php`...
我们将在抓取每个链接后,将其追加到TXT文件中,以便后续分析。 总的来说,PHP模拟百度蜘蛛抓取网站链接涉及了以下知识点: 1. PHP基础语法与网络请求:包括cURL或file_get_contents的使用。 2. HTTP协议:GET请求...
通常情况下,这可能代表的是该爬虫程序的主文件或代码库的压缩包,但没有具体的文件扩展名,可能是一个PHP源码文件、数据库文件或其他类型的数据文件。为了运行这个爬虫,你需要将这个文件解压,然后在PHP环境中执行...
海量网页爬虫系统特别设计用于处理大量网页信息的抓取和索引任务。 2. 爬虫系统设计的关键组成部分 - URL管理:负责管理、生成待抓取的URL队列。 - 页面获取:从互联网上下载网页内容。 - 页面解析:从下载的页面中...
【标题】"基于PHP的毛毛小游戏爬虫php版.zip" 涉及的主要知识点是使用PHP编程语言来实现一个网络爬虫,用于抓取和处理小游戏网站上的数据。在这个项目中,开发者可能利用了PHP的HTTP客户端库,如cURL或者Guzzle,来...
本篇内容主要介绍如何使用Python编写网络爬虫来抓取Ebay网站上的商品信息。在实际应用中,爬虫技术被广泛应用于数据挖掘、信息检索等领域,对于电商网站来说更是如此。通过爬虫可以收集大量的商品信息,为数据分析...
- **合法性和道德性**:确保你的爬虫行为符合网站的robots.txt文件规定,并尊重网站的抓取限制。 - **性能优化**:合理设置请求间隔,避免对目标服务器造成过大压力。 - **错误处理**:编写爬虫时要考虑到可能出现的...