程序師世界是廣大編程愛好者互助、分享、學習的平台,程序師世界有你更精彩!
首頁
編程語言
C語言|JAVA編程
Python編程
網頁編程
ASP編程|PHP編程
JSP編程
數據庫知識
MYSQL數據庫|SqlServer數據庫
Oracle數據庫|DB2數據庫
 程式師世界 >> 編程語言 >> 網頁編程 >> PHP編程 >> 關於PHP編程 >> PHP多線程批量采集下載美女圖片的實現代碼(續)

PHP多線程批量采集下載美女圖片的實現代碼(續)

編輯:關於PHP編程

個人認為影響的原因:
匹配到的圖片url並不是有效的url,文中只是簡單的判斷是否是相對路徑,但是有些url是失效的
解決辦法:就是新增判斷是否是真實有效url的圖片

復制代碼 代碼如下:
/**
 *
 *判斷url是否有效
 *@param $url string
 *@return boole
 */
function relUrl($url){
 if(substr($url,0,4)=='http'){
  $array = get_headers($url,true);
  if(count($array)>0 && is_array($array)){
   if(preg_match('/200/', $array[0])){
    unset($array);
    return true;
   }else{
    unset($array);
    return false;
   }
  }else{
   unset($array);
   return false;
  }
 }else{
  return false;
 }
}

主要使用get_headers函數,獲取http請求信息,判斷服務端反應狀態(200)判斷url是否真實有效。

再次測試采集圖片
結果比以前還要糟糕,運行的更慢了。

測試的原因就是:
get_headers函數雖然可以判斷url是否真實有效,但是假如遇到很慢的url資源,因為get-heades請求沒有時間限制,導致這個線程被占用,後續的請求被阻塞
file_get_content函數和上面的原因一樣,由於某些慢的url資源都長期占用,阻塞後面的進程被占用,長期阻塞,cpu占用也會增高
解決辦法;
使用curl的多線程,另外curl可以設置請求時間,遇到很慢的url資源,可以果斷的放棄,這樣沒有阻塞,另外有多線程請求,效率應該比較高,參考:《CURL的學習和應用[附多線程]》,我們再來測試一下;

核心代碼:

復制代碼 代碼如下:
/**
     * curl 多線程
     * 
     * @param array $array 並行網址
     * @param int $timeout 超時時間
     * @return mix
     */
 public function Curl_http($array,$timeout='15'){
      $res = array();

      $mh = curl_multi_init();//創建多個curl語柄

      foreach($array as $k=>$url){
          $conn[$k]=curl_init($url);//初始化

          curl_setopt($conn[$k], CURLOPT_TIMEOUT, $timeout);//設置超時時間
          curl_setopt($conn[$k], CURLOPT_USERAGENT, 'Mozilla/5.0 (compatible; MSIE 5.01; Windows NT 5.0)');
          curl_setopt($conn[$k], CURLOPT_MAXREDIRS, 7);//HTTp定向級別 ,7最高
          curl_setopt($conn[$k], CURLOPT_HEADER, false);//這裡不要header,加塊效率
          curl_setopt($conn[$k], CURLOPT_FOLLOWLOCATION, 1); // 302 redirect
          curl_setopt($conn[$k], CURLOPT_RETURNTRANSFER,1);//要求結果為字符串且輸出到屏幕上         
    curl_setopt($conn[$k], CURLOPT_HTTPGET, true);

          curl_multi_add_handle ($mh,$conn[$k]);
      }
       //防止死循環耗死cpu 這段是根據網上的寫法
          do {
              $mrc = curl_multi_exec($mh,$active);//當無數據,active=true
          } while ($mrc == CURLM_CALL_MULTI_PERFORM);//當正在接受數據時
          while ($active and $mrc == CURLM_OK) {//當無數據時或請求暫停時,active=true
              if (curl_multi_select($mh) != -1) {
                  do {
                      $mrc = curl_multi_exec($mh, $active);
                  } while ($mrc == CURLM_CALL_MULTI_PERFORM);
              }
          }

      foreach ($array as $k => $url) {
            if(!curl_errno($conn[$k])){
             $data[$k]=curl_multi_getcontent($conn[$k]);//數據轉換為array
             $header[$k]=curl_getinfo($conn[$k]);//返回http頭信息
             curl_close($conn[$k]);//關閉語柄
             curl_multi_remove_handle($mh  , $conn[$k]);   //釋放資源
            }else{
             unset($k,$url);
            }
          }

          curl_multi_close($mh);

          return $data;

   }

//參數接收
$callback = $_GET['callback'];
$hrefs = $_GET['hrefs'];
$urlarray = explode(',',trim($hrefs,','));
$date = date('Ymd',time());
//實例化
$img = new HttpImg();
$stime = $img->getMicrotime();//開始時間

$data = $img->Curl_http($urlarray,'20');//列表數據
mkdir('./img/'.$date,0777);
foreach ((array)$data as $k=>$v){
 preg_match_all("/(href|src)=(["|']?)([^ "'>]+.(jpg|png|PNG|JPG|gif))\2/i", $v, $matches[$k]);

 if(count($matches[$k][3])>0){
  $dataimg = $img->Curl_http($matches[$k][3],'20');//全部圖片數據二進制
  $j = 0;
  foreach ((array)$dataimg as $kk=>$vv){
   if($vv !=''){
    $rand = rand(1000,9999);
    $basename = time()."_".$rand.".".jpg;//保存為jpg格式的文件
    $fname = './img/'.$date."/"."$basename";
    file_put_contents($fname, $vv);   
    $j++;
    echo "創建第".$j."張圖片"."$fname"."<br/>";
   }else{
    unset($kk,$vv);
   }
  }
 }else{
  unset($matches);
 }
}
$etime = $img->getMicrotime();//結束時間
echo "用時".($etime-$stime)."秒";
exit;

測試一下效果

337張圖片用時260秒左右,基本上可以做到一秒內就可以采集一張的效果,而且發現圖片越到優勢采集速度越明顯。

我們可以看一下文件命名:也就可以做到同一時刻可以生成10張圖片,

由於采用了20秒請求的時間限制,有些圖片生成後有明顯不全,也就是圖片資源在20秒內未能完全采集,這個時間大家可以自行設置。

  1. 上一頁:
  2. 下一頁:
Copyright © 程式師世界 All Rights Reserved