介紹:就是想實現簡單的ajax上傳數據,但是當數據量較大的時候,問題就一個一個接著來了,其實數據也不是很大,就是csv格式數據 不到5w條數據。大小5M,一開始認為這個很簡單,就是先上傳一下文件,然後讀取一下,存到數據庫就好了,結果,可能我比較菜,弄了半天做出這個功能。環境是linux.
遇到的問題就從先到後的一一說吧。
問題1 按照我最初的想法,先上傳文件再讀取文件。這裡問題就來了,當文件較大的時候上傳較慢,導致客戶看到的操作一直處於等待狀態,不人性化。
處理辦法:我是這樣做的,大神有更好的辦法,求介紹。我先把文件上傳上去,然後把文件存到一個特定的文件夾就叫 import吧 ,然後返回一個這個文件名字。這樣就確保了文件是上傳成功的。並且我可以在他返回名字的這一步用js 給客戶一個提示。然後就是ajax去請求php讀取文件,插入數據庫。可是問題來了。
問題2 當我用ajax去請求php讀取文件並插入數據庫的時候,遇到一個問題,就是ajax請求總是在1min的時候,斷掉。我一想 ,這應該是php的最大執行時間max_execution_time的原因吧,結果我修改為300秒。還是這樣,那我就認為會不會是apache的 最大get時間max_input_time呢,我就在代碼加一個 ini_set 結果,用ini_get 查看max_input_time,用ini_set設置無效,還是60秒,在網上查了很多資料,還是不知道為啥。有大神知道的,請給我回復下。菜鳥先謝過了。那沒辦法,我只能去服務器把php.ini配置修改了。經理說不讓修改的,為了測試,偷偷改了--最後修改回來了。修改之後,測試,還是不行。還是到一分鐘 就執行超時。真的很納悶。不知道什麼原因。求指教。那沒辦法。
這種辦法行不通了,對一個5m的文件只能分行讀取了。然後就是對代碼的一通修改,分行讀取是這樣操作的,先ajax請求,然後每次讀取2000條 然後對這2000條數據進行處理,插入數據庫(文章最後介紹一個好用的分行讀取函數)。然後每次ajax執行完,返回一個狀態符,和本次讀取到的行數,然後下次接著讀。知道最後讀取完。這中間還遇到一個問題:就是當我對每一行數據進行查重的時候遇到的,是這樣的,我對得到的內容進行循環,然後查一下每行是否存在,當我判斷$count是否大於0 的時候,當已存在的時候,我用continue,執行下一次循環。但是當我在導入10000條的時候,總是在8000條的時候報錯說 服務器內部錯誤。很悶,不解問什麼,結果只能用if else代替了。納悶。一個小提醒:插入數據庫的時候 不要一條一條的插入,最好這樣 inset into aaa(`xx`,`xxx`)values('111','111'),('222','222')。這樣 速度會快很多。
行號讀取函數,SplFileObject這個類庫真的很好用推薦。有知道我的問題的,求大神指教。
function getFileLines($filename, $startLine, $endLine, $method = 'rb'){
$content = array();
$filename = DATA_PATH.DS.'import' . DS . $filename;
$count = $endLine - $startLine;
$fp = new SplFileObject($filename, $method);
$fp->seek($startLine); // 轉到第N行, seek方法參數從0開始計數
for ($ii = 0; $ii <= $count; ++$ii) {
$content[] = $fp->current(); // current()獲取當前行內容
$fp->next(); // 下一行
}
return array_filter($content); // array_filter過濾:false,null,''
}