相信許多人對php手冊中語焉不詳的curl_multi一族的函數頭疼不已,它們文檔少,給的例子 更是簡單的讓你無從借鑒,我也曾經找了許多網頁,都沒見一個完整的應用例子。
一般來說,想到要用這些函數時,目的顯然應該是要同時請求多個url,而不是一個一個依次請求,否則不如自己循環去調curl_exec好了。
步驟總結如下:
第一步:調用curl_multi_init
第二步:循環調用curl_multi_add_handle
這一步需要注意的是,curl_multi_add_handle的第二個參數是由curl_init而來的子handle。
第三步:持續調用curl_multi_exec
第四步:根據需要循環調用curl_multi_getcontent獲取結果
第五步:調用curl_multi_remove_handle,並為每個字handle調用curl_close
第六步:調用curl_multi_close
這裡有一個網上找的簡單例子,其作者稱為dirty的例子,(稍後我會說明為何dirty):
復制代碼 代碼如下:
/*
Here's a quick and dirty example for curl-multi from PHP, tested on PHP 5.0.0RC1 CLI / FreeBSD 5.2.1
*/
$connomains = array(
"http://www.baidu.com/",
"http://www.google.com/",
"http://www.jb51.net/"
);
$mh = curl_multi_init();
foreach ($connomains as $i => $url) {
$conn[$i]=curl_init($url);
curl_setopt($conn[$i],CURLOPT_RETURNTRANSFER,1);
curl_multi_add_handle ($mh,$conn[$i]);
}
do { $n=curl_multi_exec($mh,$active); } while ($active);
foreach ($connomains as $i => $url) {
$res[$i]=curl_multi_getcontent($conn[$i]);
curl_close($conn[$i]);
}
print_r($res);
整個使用過程差不多就是這樣,但是,這個簡單代碼有個致命弱點,就是在do循環的那段,在整個url請求期間是個死循環,它會輕易導致CPU占用100%。
現在我們來改進它,這裡要用到一個幾乎沒有任何文檔的函數curl_multi_select了,雖然C的curl庫對select有說明,但是,php裡的接口和用法確與C中有不同。
把上面do的那段改成下面這樣:
復制代碼 代碼如下:
do {
$mrc = curl_multi_exec($mh,$active);
} while ($mrc == CURLM_CALL_MULTI_PERFORM);
while ($active and $mrc == CURLM_OK) {
if (curl_multi_select($mh) != -1) {
do {
$mrc = curl_multi_exec($mh, $active);
} while ($mrc == CURLM_CALL_MULTI_PERFORM);
}
}
因為$active要等全部url數據接受完畢才變成false,所以這裡用到了curl_multi_exec的返回值判斷是否還有數據,當有數據的時候就不停調用curl_multi_exec,暫時沒有數據就進入select階段,新數據一來就可以被喚醒繼續執行。這裡的好處就是CPU的無謂消耗沒有了。
另外:還有一些細節的地方可能有時候要遇到:
控制每一個請求的超時時間,在curl_multi_add_handle之前通過curl_setopt去做:
復制代碼 代碼如下:curl_setopt($ch, CURLOPT_TIMEOUT, $timeout);
判斷是否超時了或者其他錯誤,在curl_multi_getcontent之前用:curl_error($conn[$i]);