您的位置:首页 > 其它

通过curl模拟多线程抓取网页(curl_multi_*)

2016-06-28 17:05 501 查看
  curl请求多个url,以前都是使用循环来处理。最近发现可以通过curl_multi_*系列函数来模拟多线程。比对一下,发现如果请求的url只有几个,2种方案耗时差不多,但是url比较多,差距就非常明显了。

  先来看下使用for循环的方案: 

<?php
//for循环 基础方案
$start = microtime(true);

header('Content-type:text/html;charset=utf-8');

$arrs = [
'https://www.yahoo.com/',
'http://www.jtthink.com/',
'https://www.hao123.com/',
'http://www.cnblogs.com/loveyouyou616/',
'http://www.qq.com/',
'http://www.sina.com.cn/',
'http://www.163.com/',
'https://www.yahoo.com/',
'http://www.jtthink.com/',
'https://www.hao123.com/',
'http://www.cnblogs.com/loveyouyou616/',
'http://www.qq.com/',
'http://www.sina.com.cn/',
'http://www.163.com/',
'https://www.yahoo.com/',
'http://www.jtthink.com/',
'https://www.hao123.com/',
'http://www.cnblogs.com/loveyouyou616/',
'http://www.qq.com/',
'http://www.sina.com.cn/',
'http://www.163.com/'
];

$headers = array(
'User-Agent:Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.107 Safari/537.36',
);

$mh = curl_multi_init();

foreach ($arrs as $i=>$url){
$ch = curl_init($url);
curl_setopt($ch,CURLOPT_RETURNTRANSFER,1);
curl_setopt($ch, CURLOPT_HTTPHEADER,$headers);
curl_setopt($ch, CURLOPT_HEADER, 0);
curl_setopt($ch, CURLOPT_TIMEOUT, 20);

if (strpos($url,'https')){
curl_setopt ( $ch, CURLOPT_SSL_VERIFYPEER, false );
curl_setopt ( $ch, CURLOPT_SSL_VERIFYHOST, 2 );
}

$con = curl_exec($ch);
curl_close($ch);
var_dump($con);
}

$end = microtime(true) - $start;

echo '<br/>';
echo $end;  //平均19.002983093262s


  接下来使用curl_multi_* 一次发送多个url请求

  

<?php
//此模型虽然是一次多个url请求,但缺陷是 要等所有数据请求结束一起返回,才能逐个处理数据。
$start = microtime(true);

header('Content-type:text/html;charset=utf-8');

$arrs = [
'https://www.yahoo.com/',
'http://www.jtthink.com/',
'https://www.hao123.com/',
'http://www.cnblogs.com/loveyouyou616/',
'http://www.qq.com/',
'http://www.sina.com.cn/',
'http://www.163.com/',
'https://www.yahoo.com/',
'http://www.jtthink.com/',
'https://www.hao123.com/',
'http://www.cnblogs.com/loveyouyou616/',
'http://www.qq.com/',
'http://www.sina.com.cn/',
'http://www.163.com/',
'https://www.yahoo.com/',
'http://www.jtthink.com/',
'https://www.hao123.com/',
'http://www.cnblogs.com/loveyouyou616/',
'http://www.qq.com/',
'http://www.sina.com.cn/',
'http://www.163.com/'
];

$headers = array(
'User-Agent:Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.107 Safari/537.36',
);

$mh = curl_multi_init();

foreach ($arrs as $i=>$url){
$conn[$i] = curl_init($url);
curl_setopt($conn[$i],CURLOPT_RETURNTRANSFER,1);
curl_setopt($conn[$i], CURLOPT_HTTPHEADER,$headers);
curl_setopt($conn[$i], CURLOPT_HEADER, 0);
curl_setopt($conn[$i], CURLOPT_TIMEOUT, 20);

if (strpos($url,'https')){
curl_setopt ( $conn[$i], CURLOPT_SSL_VERIFYPEER, false );
curl_setopt ( $conn[$i], CURLOPT_SSL_VERIFYHOST, 2 );
}
curl_multi_add_handle($mh,$conn[$i]);
}

$active = null;
/*
* 这样写会轻易导致CPU占用100%

do {
$n=curl_multi_exec($mh,$active);
} while ($active);
*
*/

//改写
/*
do {
$mrc = curl_multi_exec($mh,$active);
}while($mrc == CURLM_CALL_MULTI_PERFORM);

while ($active and $mrc == CURLM_OK){
if (curl_multi_select($mh) != -1) {
do {
$mrc = curl_multi_exec($mh, $active);
} while ($mrc == CURLM_CALL_MULTI_PERFORM);
}
}
*/

//最简单方案
do {
curl_multi_exec($mh, $running);
curl_multi_select($mh);
} while ($running > 0);

//获取内容
foreach ($arrs as $i => $url) {
$res[$i]=curl_multi_getcontent($conn[$i]);
var_dump($res[$i]);
curl_close($conn[$i]);
//等待所有http请求结束返回数据依次生成文件。
file_put_contents('curl_multi.log',$res[$i]."\r\n\r\n\r\n\r\n",FILE_APPEND);
}

$end = microtime(true) - $start;

echo '<br/>';
echo $end; // 平均 10.091157913208s


  执行上面2段代码,可以发现使用curl_multi_*系列函数来处理,效率明显高不少。

  但是上面的模型也存在一个问题,返回的时间依赖最长的请求,通俗的说就是结果数据要等所有http请求结束后一起返回,然后逐个处理数据。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: