您的位置:首页 > 其它

CURL 爬虫,抓取网页并写入文件

2016-03-27 20:55 190 查看
<?php

//例子1,简单crul获得网页内容,
//01 在命令行cmd、
//02 cd -d D:\wamp\test
//03 php -f curl_url.php

/*$curl = curl_init("http://www.baidu.com");
curl_exec($curl);
curl_close($curl);*/

//例子2,将请求处理存入文件
$curlobj = curl_init();
curl_setopt($curlobj,CURLOPT_URL,"http://www.baidu.com");
curl_setopt($curlobj,CURLOPT_RETURNTRANSFER,true); //请求结果不直接打印
$output = curl_exec($curlobj);
curl_close($curlobj);

//将请求结果写入文件
$myfile = fopen("curl_html.html", "w") or die("Unable to open file!");

//$txt = $output;  直接存储到文件
$txt = str_replace("百度","屌丝",$output); //处理结果集后存储到文件

fwrite($myfile, $txt);
fclose($myfile);
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: