function utf8_gb2312($str, $default = 'gb2312')
{
$str = preg_replace("/[x01-x7f]+/", "", $str);
if (empty($str)) return $default;
$preg = array(
"gb2312" => "/^([xa1-xf7][xa0-xfe])+$/", //正則判斷是否是gb2312
"utf-8" => "/^[x{4e00}-x{9fa5}]+$/u", //正則判斷是否是漢字(utf8編碼的條件了),這個范圍實際上已經包含了繁體中文字了
);if ($default == 'gb2312') {
$option = 'utf-8';
} else {
$option = 'gb2312';
}if (!preg_match($preg[$default], $str)) {
return $option;
}
$str = @iconv($default, $option, $str);
//不能轉成 $option, 說明原來的不是 $default
if (empty($str)) {
return $option;
}
默認編碼是gb2312,而且我統計了一下,90%的情況下都是gb2312,所以,我的檢測函數不能出現本來是gb2312的,結果被檢測出utf8. 基本思路是:
1. 把所有的ascii去掉,如果全部都是ascii,那麼就是gb2312。
2. 假設這個字符串是gb2312,用一個正則檢查它是否是真的gb2312,如果不是,那麼就是utf-8
3. 然後,用iconv 把字符串轉換成utf8,如果轉換不成功,那麼原來可能不是真正的一個gb2312編碼的字符
(用正則匹配我已經盡量精確,但是,gb2312的編碼不是連續的,還是會有空洞),那麼最後的編碼就是utf-8.
4. 否則就是gb2312 編碼
加入這樣的檢查功能後,在1000個關鍵字裡面,就出現了1個亂碼,比以前的近100個關鍵字亂碼少了很多。