使用cURL获取网页
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用cURL获取网页相关的知识,希望对你有一定的参考价值。
Helpful for remembering useful CURLOPT constants. Taken from an example in the php manual comments.
<?php function get_web_page( $url,$curl_data ) { CURLOPT_RETURNTRANSFER => true, // return web page CURLOPT_HEADER => false, // don't return headers CURLOPT_FOLLOWLOCATION => true, // follow redirects CURLOPT_ENCODING => "", // handle all encodings CURLOPT_USERAGENT => "spider", // who am i CURLOPT_AUTOREFERER => true, // set referer on redirect CURLOPT_CONNECTTIMEOUT => 120, // timeout on connect CURLOPT_TIMEOUT => 120, // timeout on response CURLOPT_MAXREDIRS => 10, // stop after 10 redirects CURLOPT_POST => 1, // i am sending post data CURLOPT_POSTFIELDS => $curl_data, // this are my post vars CURLOPT_SSL_VERIFYHOST => 0, // don't verify ssl CURLOPT_SSL_VERIFYPEER => false, // CURLOPT_VERBOSE => 1 // ); // $header['errno'] = $err; // $header['errmsg'] = $errmsg; // $header['content'] = $content; return $header; } $curl_data = "var1=60&var2=test"; $url = "https://www.example.com"; $response = get_web_page($url,$curl_data); print '<pre>'; ?>
以上是关于使用cURL获取网页的主要内容,如果未能解决你的问题,请参考以下文章
在php中分别使用curl的post提交数据的方法和get获取网页数据的方法
PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题