一些小技巧
1. 如何查出效率低的語句?
在MySQL下,在啟動參數中設置 --log-slow-queries=[文件名],就可以在指定的日志文件中記錄執行時間超過long_query_time(缺省為10秒)的SQL語句。你也可以在啟動配置文件中修改long query的時間,如:
復制代碼 代碼如下:
# Set long query time to 8 seconds
long_query_time=8
2. 如何查詢某表的索引?
可使用SHOW INDEX語句,如:
復制代碼 代碼如下:
SHOW INDEX FROM [表名]
3. 如何查詢某條語句的索引使用情況?
可用EXPLAIN語句來看一下某條SELECT語句的索引使用情況。如果是UPDATE或DELETE語句,需要先轉換為SELECT語句。
4. 如何把導出INNODB引擎的內容到錯誤日志文件中?
我們可以使用SHOW INNODB STATUS命令來查看INNODB引擎的很多有用的信息,如當前進程、事務、外鍵錯誤、死鎖問題和其它一些統計數據。如何讓該信息能記錄在日志文件中呢?只要使用如下語句創建innodb_monitor表,MySQL就會每15秒鐘把該系統寫入到錯誤日志文件中:
復制代碼 代碼如下:
CREATE TABLE innodb_monitor (a INT) ENGINE=INNODB;
如果你不再需要導出到錯誤日志文件,只要刪除該表即可:
復制代碼 代碼如下:
DROP TABLE innodb_monitor;
5. 如何定期刪除龐大的日志文件?
只要在啟動配置文件中設置日志過期時間即可:
復制代碼 代碼如下:
expire_logs_days=10
經驗教訓
1. 重點關注索引
下面以表TSK_TASK表為例說明SQL語句優化過程。TSK_TASK表用於保存系統監測任務,相關字段及索引如下:
ID:主鍵;
MON_TIME:監測時間;建了索引;
STATUS_ID:任務狀態;與SYS_HIER_INFO.ID建立了外鍵關系。
注MySQL自動會為外鍵建立索引,在本次優化過程中,發現這些自動建立的外鍵索引會對SQL語句的效率產生不必要的干擾,需要特別注意!
首先,我們在日志文件中查到下面語句的執行比較慢,超過10秒了:
復制代碼 代碼如下:
# Query_time: 18 Lock_time: 0 Rows_sent: 295 Rows_examined: 88143
select * from TSK_TASK WHERE STATUS_ID = 1064 and MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23';
哦,原來在88143條記錄中要查出符合條件的295條記錄,那當然慢了。趕緊用EXPLAIN語句看一下索引使用情況吧:
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| 1 | SIMPLE | TSK_TASK | ref | FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME | FK_task_status_id_TO_SYS_HIER_INFO | 9 | const | 276168 | Using where |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
可以看出,有兩個索引可用FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME,而最終執行語句時采用了STATUS_ID上的外鍵索引。
再看一下TSK_TASK表的索引情況吧:
+----------+------------------------------------+-------------+-------------+
| Table | Key_name | Column_name | Cardinality |
+----------+------------+------------------------------------+--------------+
| TSK_TASK | PRIMARY | ID | 999149 |
| TSK_TASK | FK_task_status_id_TO_SYS_HIER_INFO | STATUS_ID | 16 |
| TSK_TASK | TSK_TASK_KEY_MON_TIME | MON_TIME | 13502 |
+----------+------------------------------------+-------------+-----------+--
在Oracle或其他關系數據庫下,WHERE條件中的字段順序對索引的選擇起著很重要的作用。我們調整一下字段順序,把STATUS_ID放在後面,再EXPLAIN一下:
復制代碼 代碼如下:
EXPLAIN select * from TSK_TASK WHERE MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23' and STATUS_ID = 1064;
但是沒什麼效果,MySQL還是選用系統建立的STATUS_ID外鍵索引。
仔細分析一下,看來Cardinality屬性(即索引中的唯一值的個數)對索引的選擇起了極其重要的作用,MySQL選擇了索引值唯一值個數小的那個索引作為整條語句的索引。
針對這條語句,如果使用FK_task_status_id_TO_SYS_HIER_INFO做索引,而TSK_TASK表中存放很多天數據的話,那掃描的記錄數會很多,速度較慢。可以有以下幾個優化方案:
如果一天的任務數不多的話,我們刪除索引FK_task_status_id_TO_SYS_HIER_INFO,那MySQL會使用索引TSK_TASK_KEY_MON_TIME,然後在該天的數據中在掃描STATUS_ID為1064的記錄,那速度也不慢;
如果一天的任務數多的話,我們需刪除索引FK_task_status_id_TO_SYS_HIER_INFO和TSK_TASK_KEY_MON_TIME,然後再建立STATUS_ID,MON_TIME的聯合索引,這樣效率肯定會很高。
因此建議,對那些記錄數多的表,建議不要使用外鍵,以避免造成性能效率的嚴重降低。
2. 盡量控制每張表的記錄數
當一張表的記錄數很大時,管理和維護就會很麻煩,如索引維護就會占用很長時間,從而會給系統的正常運行造成很大的干擾。
對隨時間推移數據量不斷增長的表,我們可以根據時間來區分實時數據和歷史數據,可以使用後台服務程序定期移動實時表中的數據到歷史表中,從而控制實時表的記錄數,提高查詢和操作效率。但注意每次移動的時間要足夠短,不要影響正常程序的數據寫入。如果占用時間太長,可能會造成死鎖問題。
3. 數據散列(partition)策略
當客戶數達到一定規模後,單個數據庫將無法支撐更高的並發訪問,此時可以考慮把客戶數據散列(partition)到多個數據庫中,以分擔負載,提高系統的整體性能與效率。
數據散列可以考慮采用federeated或sharded方式,網上有不少這方面的資料。
一些小技巧
1. 如何查出效率低的語句?
在MySQL下,在啟動參數中設置 --log-slow-queries=[文件名],就可以在指定的日志文件中記錄執行時間超過long_query_time(缺省為10秒)的SQL語句。你也可以在啟動配置文件中修改long query的時間,如:
復制代碼 代碼如下:
# Set long query time to 8 seconds
long_query_time=8
2. 如何查詢某表的索引?
可使用SHOW INDEX語句,如:
復制代碼 代碼如下:
SHOW INDEX FROM [表名]
3. 如何查詢某條語句的索引使用情況?
可用EXPLAIN語句來看一下某條SELECT語句的索引使用情況。如果是UPDATE或DELETE語句,需要先轉換為SELECT語句。
4. 如何把導出INNODB引擎的內容到錯誤日志文件中?
我們可以使用SHOW INNODB STATUS命令來查看INNODB引擎的很多有用的信息,如當前進程、事務、外鍵錯誤、死鎖問題和其它一些統計數據。如何讓該信息能記錄在日志文件中呢?只要使用如下語句創建innodb_monitor表,MySQL就會每15秒鐘把該系統寫入到錯誤日志文件中:
復制代碼 代碼如下:
CREATE TABLE innodb_monitor (a INT) ENGINE=INNODB;
如果你不再需要導出到錯誤日志文件,只要刪除該表即可:
復制代碼 代碼如下:
DROP TABLE innodb_monitor;
5. 如何定期刪除龐大的日志文件?
只要在啟動配置文件中設置日志過期時間即可:
復制代碼 代碼如下:
expire_logs_days=10
經驗教訓
1. 重點關注索引
下面以表TSK_TASK表為例說明SQL語句優化過程。TSK_TASK表用於保存系統監測任務,相關字段及索引如下:
ID:主鍵;
MON_TIME:監測時間;建了索引;
STATUS_ID:任務狀態;與SYS_HIER_INFO.ID建立了外鍵關系。
注MySQL自動會為外鍵建立索引,在本次優化過程中,發現這些自動建立的外鍵索引會對SQL語句的效率產生不必要的干擾,需要特別注意!
首先,我們在日志文件中查到下面語句的執行比較慢,超過10秒了:
復制代碼 代碼如下:
# Query_time: 18 Lock_time: 0 Rows_sent: 295 Rows_examined: 88143
select * from TSK_TASK WHERE STATUS_ID = 1064 and MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23';
哦,原來在88143條記錄中要查出符合條件的295條記錄,那當然慢了。趕緊用EXPLAIN語句看一下索引使用情況吧:
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| 1 | SIMPLE | TSK_TASK | ref | FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME | FK_task_status_id_TO_SYS_HIER_INFO | 9 | const | 276168 | Using where |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
可以看出,有兩個索引可用FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME,而最終執行語句時采用了STATUS_ID上的外鍵索引。
再看一下TSK_TASK表的索引情況吧:
+----------+------------------------------------+-------------+-------------+
| Table | Key_name | Column_name | Cardinality |
+----------+------------+------------------------------------+--------------+
| TSK_TASK | PRIMARY | ID | 999149 |
| TSK_TASK | FK_task_status_id_TO_SYS_HIER_INFO | STATUS_ID | 16 |
| TSK_TASK | TSK_TASK_KEY_MON_TIME | MON_TIME | 13502 |
+----------+------------------------------------+-------------+-----------+--
在Oracle或其他關系數據庫下,WHERE條件中的字段順序對索引的選擇起著很重要的作用。我們調整一下字段順序,把STATUS_ID放在後面,再EXPLAIN一下:
復制代碼 代碼如下:
EXPLAIN select * from TSK_TASK WHERE MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23' and STATUS_ID = 1064;
但是沒什麼效果,MySQL還是選用系統建立的STATUS_ID外鍵索引。
仔細分析一下,看來Cardinality屬性(即索引中的唯一值的個數)對索引的選擇起了極其重要的作用,MySQL選擇了索引值唯一值個數小的那個索引作為整條語句的索引。
針對這條語句,如果使用FK_task_status_id_TO_SYS_HIER_INFO做索引,而TSK_TASK表中存放很多天數據的話,那掃描的記錄數會很多,速度較慢。可以有以下幾個優化方案:
如果一天的任務數不多的話,我們刪除索引FK_task_status_id_TO_SYS_HIER_INFO,那MySQL會使用索引TSK_TASK_KEY_MON_TIME,然後在該天的數據中在掃描STATUS_ID為1064的記錄,那速度也不慢;
如果一天的任務數多的話,我們需刪除索引FK_task_status_id_TO_SYS_HIER_INFO和TSK_TASK_KEY_MON_TIME,然後再建立STATUS_ID,MON_TIME的聯合索引,這樣效率肯定會很高。
因此建議,對那些記錄數多的表,建議不要使用外鍵,以避免造成性能效率的嚴重降低。
2. 盡量控制每張表的記錄數
當一張表的記錄數很大時,管理和維護就會很麻煩,如索引維護就會占用很長時間,從而會給系統的正常運行造成很大的干擾。
對隨時間推移數據量不斷增長的表,我們可以根據時間來區分實時數據和歷史數據,可以使用後台服務程序定期移動實時表中的數據到歷史表中,從而控制實時表的記錄數,提高查詢和操作效率。但注意每次移動的時間要足夠短,不要影響正常程序的數據寫入。如果占用時間太長,可能會造成死鎖問題。
3. 數據散列(partition)策略
當客戶數達到一定規模後,單個數據庫將無法支撐更高的並發訪問,此時可以考慮把客戶數據散列(partition)到多個數據庫中,以分擔負載,提高系統的整體性能與效率。
數據散列可以考慮采用federeated或sharded方式,網上有不少這方面的資料。
一些小技巧
1. 如何查出效率低的語句?
在MySQL下,在啟動參數中設置 --log-slow-queries=[文件名],就可以在指定的日志文件中記錄執行時間超過long_query_time(缺省為10秒)的SQL語句。你也可以在啟動配置文件中修改long query的時間,如:
復制代碼 代碼如下:
# Set long query time to 8 seconds
long_query_time=8
2. 如何查詢某表的索引?
可使用SHOW INDEX語句,如:
復制代碼 代碼如下:
SHOW INDEX FROM [表名]
3. 如何查詢某條語句的索引使用情況?
可用EXPLAIN語句來看一下某條SELECT語句的索引使用情況。如果是UPDATE或DELETE語句,需要先轉換為SELECT語句。
4. 如何把導出INNODB引擎的內容到錯誤日志文件中?
我們可以使用SHOW INNODB STATUS命令來查看INNODB引擎的很多有用的信息,如當前進程、事務、外鍵錯誤、死鎖問題和其它一些統計數據。如何讓該信息能記錄在日志文件中呢?只要使用如下語句創建innodb_monitor表,MySQL就會每15秒鐘把該系統寫入到錯誤日志文件中:
復制代碼 代碼如下:
CREATE TABLE innodb_monitor (a INT) ENGINE=INNODB;
如果你不再需要導出到錯誤日志文件,只要刪除該表即可:
復制代碼 代碼如下:
DROP TABLE innodb_monitor;
5. 如何定期刪除龐大的日志文件?
只要在啟動配置文件中設置日志過期時間即可:
復制代碼 代碼如下:
expire_logs_days=10
經驗教訓
1. 重點關注索引
下面以表TSK_TASK表為例說明SQL語句優化過程。TSK_TASK表用於保存系統監測任務,相關字段及索引如下:
ID:主鍵;
MON_TIME:監測時間;建了索引;
STATUS_ID:任務狀態;與SYS_HIER_INFO.ID建立了外鍵關系。
注MySQL自動會為外鍵建立索引,在本次優化過程中,發現這些自動建立的外鍵索引會對SQL語句的效率產生不必要的干擾,需要特別注意!
首先,我們在日志文件中查到下面語句的執行比較慢,超過10秒了:
復制代碼 代碼如下:
# Query_time: 18 Lock_time: 0 Rows_sent: 295 Rows_examined: 88143
select * from TSK_TASK WHERE STATUS_ID = 1064 and MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23';
哦,原來在88143條記錄中要查出符合條件的295條記錄,那當然慢了。趕緊用EXPLAIN語句看一下索引使用情況吧:
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| 1 | SIMPLE | TSK_TASK | ref | FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME | FK_task_status_id_TO_SYS_HIER_INFO | 9 | const | 276168 | Using where |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
可以看出,有兩個索引可用FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME,而最終執行語句時采用了STATUS_ID上的外鍵索引。
再看一下TSK_TASK表的索引情況吧:
+----------+------------------------------------+-------------+-------------+
| Table | Key_name | Column_name | Cardinality |
+----------+------------+------------------------------------+--------------+
| TSK_TASK | PRIMARY | ID | 999149 |
| TSK_TASK | FK_task_status_id_TO_SYS_HIER_INFO | STATUS_ID | 16 |
| TSK_TASK | TSK_TASK_KEY_MON_TIME | MON_TIME | 13502 |
+----------+------------------------------------+-------------+-----------+--
在Oracle或其他關系數據庫下,WHERE條件中的字段順序對索引的選擇起著很重要的作用。我們調整一下字段順序,把STATUS_ID放在後面,再EXPLAIN一下:
復制代碼 代碼如下:
EXPLAIN select * from TSK_TASK WHERE MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23' and STATUS_ID = 1064;
但是沒什麼效果,MySQL還是選用系統建立的STATUS_ID外鍵索引。
仔細分析一下,看來Cardinality屬性(即索引中的唯一值的個數)對索引的選擇起了極其重要的作用,MySQL選擇了索引值唯一值個數小的那個索引作為整條語句的索引。
針對這條語句,如果使用FK_task_status_id_TO_SYS_HIER_INFO做索引,而TSK_TASK表中存放很多天數據的話,那掃描的記錄數會很多,速度較慢。可以有以下幾個優化方案:
如果一天的任務數不多的話,我們刪除索引FK_task_status_id_TO_SYS_HIER_INFO,那MySQL會使用索引TSK_TASK_KEY_MON_TIME,然後在該天的數據中在掃描STATUS_ID為1064的記錄,那速度也不慢;
如果一天的任務數多的話,我們需刪除索引FK_task_status_id_TO_SYS_HIER_INFO和TSK_TASK_KEY_MON_TIME,然後再建立STATUS_ID,MON_TIME的聯合索引,這樣效率肯定會很高。
因此建議,對那些記錄數多的表,建議不要使用外鍵,以避免造成性能效率的嚴重降低。
2. 盡量控制每張表的記錄數
當一張表的記錄數很大時,管理和維護就會很麻煩,如索引維護就會占用很長時間,從而會給系統的正常運行造成很大的干擾。
對隨時間推移數據量不斷增長的表,我們可以根據時間來區分實時數據和歷史數據,可以使用後台服務程序定期移動實時表中的數據到歷史表中,從而控制實時表的記錄數,提高查詢和操作效率。但注意每次移動的時間要足夠短,不要影響正常程序的數據寫入。如果占用時間太長,可能會造成死鎖問題。
3. 數據散列(partition)策略
當客戶數達到一定規模後,單個數據庫將無法支撐更高的並發訪問,此時可以考慮把客戶數據散列(partition)到多個數據庫中,以分擔負載,提高系統的整體性能與效率。
數據散列可以考慮采用federeated或sharded方式,網上有不少這方面的資料。
一些小技巧
1. 如何查出效率低的語句?
在MySQL下,在啟動參數中設置 --log-slow-queries=[文件名],就可以在指定的日志文件中記錄執行時間超過long_query_time(缺省為10秒)的SQL語句。你也可以在啟動配置文件中修改long query的時間,如:
復制代碼 代碼如下:
# Set long query time to 8 seconds
long_query_time=8
2. 如何查詢某表的索引?
可使用SHOW INDEX語句,如:
復制代碼 代碼如下:
SHOW INDEX FROM [表名]
3. 如何查詢某條語句的索引使用情況?
可用EXPLAIN語句來看一下某條SELECT語句的索引使用情況。如果是UPDATE或DELETE語句,需要先轉換為SELECT語句。
4. 如何把導出INNODB引擎的內容到錯誤日志文件中?
我們可以使用SHOW INNODB STATUS命令來查看INNODB引擎的很多有用的信息,如當前進程、事務、外鍵錯誤、死鎖問題和其它一些統計數據。如何讓該信息能記錄在日志文件中呢?只要使用如下語句創建innodb_monitor表,MySQL就會每15秒鐘把該系統寫入到錯誤日志文件中:
復制代碼 代碼如下:
CREATE TABLE innodb_monitor (a INT) ENGINE=INNODB;
如果你不再需要導出到錯誤日志文件,只要刪除該表即可:
復制代碼 代碼如下:
DROP TABLE innodb_monitor;
5. 如何定期刪除龐大的日志文件?
只要在啟動配置文件中設置日志過期時間即可:
復制代碼 代碼如下:
expire_logs_days=10
經驗教訓
1. 重點關注索引
下面以表TSK_TASK表為例說明SQL語句優化過程。TSK_TASK表用於保存系統監測任務,相關字段及索引如下:
ID:主鍵;
MON_TIME:監測時間;建了索引;
STATUS_ID:任務狀態;與SYS_HIER_INFO.ID建立了外鍵關系。
注MySQL自動會為外鍵建立索引,在本次優化過程中,發現這些自動建立的外鍵索引會對SQL語句的效率產生不必要的干擾,需要特別注意!
首先,我們在日志文件中查到下面語句的執行比較慢,超過10秒了:
# Query_time: 18 Lock_time: 0 Rows_sent: 295 Rows_examined: 88143
select * from TSK_TASK WHERE STATUS_ID = 1064 and MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23';
哦,原來在88143條記錄中要查出符合條件的295條記錄,那當然慢了。趕緊用EXPLAIN語句看一下索引使用情況吧:
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
| 1 | SIMPLE | TSK_TASK | ref | FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME | FK_task_status_id_TO_SYS_HIER_INFO | 9 | const | 276168 | Using where |
+----+-------------+----------+------+----------------------------------------------------------+------------------------------------+---------+-------+--------+-------------+
可以看出,有兩個索引可用FK_task_status_id_TO_SYS_HIER_INFO,TSK_TASK_KEY_MON_TIME,而最終執行語句時采用了STATUS_ID上的外鍵索引。
再看一下TSK_TASK表的索引情況吧:
+----------+------------------------------------+-------------+-------------+
| Table | Key_name | Column_name | Cardinality |
+----------+------------+------------------------------------+--------------+
| TSK_TASK | PRIMARY | ID | 999149 |
| TSK_TASK | FK_task_status_id_TO_SYS_HIER_INFO | STATUS_ID | 16 |
| TSK_TASK | TSK_TASK_KEY_MON_TIME | MON_TIME | 13502 |
+----------+------------------------------------+-------------+-----------+--
在Oracle或其他關系數據庫下,WHERE條件中的字段順序對索引的選擇起著很重要的作用。我們調整一下字段順序,把STATUS_ID放在後面,再EXPLAIN一下:
復制代碼 代碼如下:
EXPLAIN select * from TSK_TASK WHERE MON_TIME >= '2007-11-22' and MON_TIME < '2007-11-23' and STATUS_ID = 1064;
但是沒什麼效果,MySQL還是選用系統建立的STATUS_ID外鍵索引。
仔細分析一下,看來Cardinality屬性(即索引中的唯一值的個數)對索引的選擇起了極其重要的作用,MySQL選擇了索引值唯一值個數小的那個索引作為整條語句的索引。
針對這條語句,如果使用FK_task_status_id_TO_SYS_HIER_INFO做索引,而TSK_TASK表中存放很多天數據的話,那掃描的記錄數會很多,速度較慢。可以有以下幾個優化方案:
如果一天的任務數不多的話,我們刪除索引FK_task_status_id_TO_SYS_HIER_INFO,那MySQL會使用索引TSK_TASK_KEY_MON_TIME,然後在該天的數據中在掃描STATUS_ID為1064的記錄,那速度也不慢;
如果一天的任務數多的話,我們需刪除索引FK_task_status_id_TO_SYS_HIER_INFO和TSK_TASK_KEY_MON_TIME,然後再建立STATUS_ID,MON_TIME的聯合索引,這樣效率肯定會很高。
因此建議,對那些記錄數多的表,建議不要使用外鍵,以避免造成性能效率的嚴重降低。
2. 盡量控制每張表的記錄數
當一張表的記錄數很大時,管理和維護就會很麻煩,如索引維護就會占用很長時間,從而會給系統的正常運行造成很大的干擾。
對隨時間推移數據量不斷增長的表,我們可以根據時間來區分實時數據和歷史數據,可以使用後台服務程序定期移動實時表中的數據到歷史表中,從而控制實時表的記錄數,提高查詢和操作效率。但注意每次移動的時間要足夠短,不要影響正常程序的數據寫入。如果占用時間太長,可能會造成死鎖問題。
3. 數據散列(partition)策略
當客戶數達到一定規模後,單個數據庫將無法支撐更高的並發訪問,此時可以考慮把客戶數據散列(partition)到多個數據庫中,以分擔負載,提高系統的整體性能與效率。
數據散列可以考慮采用federeated或sharded方式,網上有不少這方面的資料。
配置my.cnf/my.ini,增加 --log-slow-queries 配置,記錄所有的slow query,然後挨個優化
本文來源於 WEB開發網
復制代碼 代碼如下:
select @a=DRClass1, @b=DRClass2, @c=DRClass3, @d=DRClass4, @e=DRClass5 from Teacher Where TeacherID = @TeacherID
create table classname(classname char(50))
insert into classname (classname) values (@a)
if (@b is not null)
begin
insert into classname (classname) values (@b)
if (@c is not null)
begin
insert into classname (classname) values (@c)
if (@d is not null)
begin
insert into classname (classname) values (@d)
if (@e is not null)
begin
insert into classname (classname) values (@e)
end
end
end
end
select * from classname
以上這些SQL語句能不能轉成一個存儲過程?我自己試了下
復制代碼 代碼如下:
ALTER PROCEDURE Pr_GetClass
@TeacherID int,
@a char(50),
@b char(50),
@c char(50),
@d char(50),
@e char(50)
as
select @a=DRClass1, @b=DRClass2, @c=DRClass3, @d=DRClass4, @e=DRClass5 from Teacher Where TeacherID = @TeacherID
DROP TABLE classname
create table classname(classname char(50))
insert into classname (classname) values (@a)
if (@b is not null)
begin
insert into classname (classname) values (@b)
if (@c is not null)
begin
insert into classname (classname) values (@c)
if (@d is not null)
begin
insert into classname (classname) values (@d)
if (@e is not null)
begin
insert into classname (classname) values (@e)
end
end
end
end
select * from classname
但是這樣的話,這個存儲過程就有6個變量,實際上應該只提供一個變量就可以了
主要的問題就是自己沒搞清楚 @a,@b,@C,@d 等是臨時變量,是放在as後面重新做一些申明的,而不是放在開頭整個存儲過程的變量定義。
(標准化越來越近了):namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />
實戰SQL語句收集(不斷更新中--)
前言:這裡將我編程實踐中遇到的有價值的sql語句一路記下來,一方面方便自己查用,一方面也夯實下即將遺忘的回憶。整個過程中我會不斷更新,直到不能再加為止,同時,這裡只記錄最實用的咚咚,不效仿學院派的那一套。
一、常用SQL語句荟萃
1,查詢:
1.1,簡單查詢:select * from table where
1.2,連接查詢:
什麼是連接查詢?顧名釋義,就是查詢時涉及多個表的查詢。是以說到連接,廢話一下,要知道連接還是關系數據庫的主要特點呢。
連接查詢分為三種:外連接(OUTER JOIN),內連接(INNER JOIN),交叉連接(CROSS JOIN)。
(標准化越來越近了):namespace prefix = st1 ns = "urn:schemas-microsoft-com:office:smarttags" />1.2.1,內連接(INNER JOIN)使用比較運算符進行表間某(些)列數據的比較操作,並列出這些表中與連接條件相匹配的數據行。根據所使用的比較方式不同,內連接又分為等值連接、自然連接和不等連接三種。
1.2.2,外連接分為左外連接(LEFT OUTER JOIN或LEFT JOIN)、右外連接(RIGHT OUTER JOIN或RIGHT JOIN)和全外連接(FULL OUTER JOIN或FULL JOIN)三種。與內連接不同的是,外連接不只列出與連接條件相匹配的行,而是列出左表(左外連接時)、右表(右外連接時)或兩個表(全外連接時)中所有符合搜索條件的數據行。
1.2.3,交叉連接(CROSS JOIN)沒有WHERE 子句,它返回連接表中所有數據行的笛卡爾積,其結果集合中的數據行數等於第一個表中符合查詢條件的數據行數乘以第二個表中符合查詢條件的數據行數。連接操作中的ON (join_condition) 子句指出連接條件,它由被連接表中的列和比較運算符、邏輯運算符等構成。
1.2.4,無論哪種連接都不能對text、ntext和image數據類型列進行直接連接,但可以對這三種列進行間接連接。例如:
SELECT p1.pub_id,p2.pub_id,p1.pr_info
FROM pub_info AS p1 INNER JOIN pub_info AS p2
ON DATALENGTH(p1.pr_info)=DATALENGTH(p2.pr_info)
1.2.5,使用WHERE子句設置查詢條件
WHERE子句設置查詢條件,過濾掉不需要的數據行。例如下面語句查詢年齡大於20的數據:
復制代碼 代碼如下:
SELECT *
FROM usertable
WHERE age>20
WHERE子句可包括各種條件運算符:
比較運算符(大小比較):>、>=、=、<、<=、<>、!>、!<
范圍運算符(表達式值是否在指定的范圍):BETWEEN…AND…
NOT BETWEEN…AND…
列表運算符(判斷表達式是否為列表中的指定項):IN (項1,項2……)
NOT IN (項1,項2……)
模式匹配符(判斷值是否與指定的字符通配格式相符):LIKE、NOT LIKE
空值判斷符(判斷表達式是否為空):IS NULL、NOT IS NULL
邏輯運算符(用於多條件的邏輯連接):NOT、AND、OR
1、范圍運算符例:age BETWEEN 10 AND 30相當於age>=10 AND age<=30
2、列表運算符例:country IN ('Germany','China')
3、模式匹配符例:常用於模糊查找,它判斷列值是否與指定的字符串格式相匹配。可用於char、varchar、text、ntext、datetime和smalldatetime等類型查詢。
可使用以下通配字符:
百分號%:可匹配任意類型和長度的字符,如果是中文,請使用兩個百分號即%%。
下劃線_:匹配單個任意字符,它常用來限制表達式的字符長度。
方括號[]:指定一個字符、字符串或范圍,要求所匹配對象為它們中的任一個。
[^]:其取值也[] 相同,但它要求所匹配對象為指定字符以外的任一個字符。
例如:
限制以Publishing結尾,使用LIKE '%Publishing'
限制以A開頭:LIKE '[A]%'
限制以A開頭外:LIKE '[^A]%'
空值判斷符例:WHERE age IS NULL
2,更新:update table
3,插入:
3.1,一般插入:
復制代碼 代碼如下:
INSERT INTO publishers
(pub_id, pub_name, city, state)
VALUES
('9001', 'Acme Publishing', 'New York', 'NY')
3.2,插入多行
使用 INSERT 語句可以向表添加多行數據。這些多行數據是從已經存有這些數據的另一個表中選取的。本例中,向 pubhold 表中添加有關在加利福尼亞和德克薩斯州的出版商的數據。這些數據可從 publishers 表中獲得。
復制代碼 代碼如下:
INSERT pubhpold SELECT * FROM publishers
WHERE state = 'CA' OR state = 'TX'
4,刪除:
4.1,Delete語句聯合刪除:
復制代碼 代碼如下:
DELETE FROM uu_SuiteToMinClassroomSect
WHERE min_classroom_sect_id IN
(SELECT min_classroom_sect_id
FROM uu_MinClassroomSect
WHERE min_classroom_id = '112')
二、視圖使用細則
1,一個典型的視圖
復制代碼 代碼如下:
CREATE VIEW View_uuGroupTaxis
AS
SELECT uu_GroupInfo.group_id, uu_GroupInfo.group_name,
uu_GroupType.main_type, uu_GroupType.group_type_name,
uu_GroupInfo.group_icon_url, ISNULL
((SELECT COUNT(*)
FROM uu_GroupUser
WHERE uu_GroupInfo.group_id = uu_GroupUser.group_id), 0)
* 50 + ISNULL(uu_GroupInfo.fundCount, 0) + ISNULL
((SELECT COUNT(*)
FROM Dv_Topic
WHERE Dv_Topic.BoardID = uu_GroupInfo.subforum_id), 0) * 5 + ISNULL
((SELECT COUNT(*)
FROM uu_GroupPhotos
WHERE uu_GroupPhotos.group_id = uu_GroupInfo.group_id), 0)
* 10 + ISNULL(uu_GroupInfo.topic_account, 0)
* 2 + ISNULL(uu_GroupInfo.hit_account, 0) AS group_ActiveDegree,
ISNULL
((SELECT COUNT(*)
FROM uu_GroupUser
WHERE uu_GroupInfo.group_id = uu_GroupUser.group_id), 0)
AS group_memberNum, ISNULL(uu_GroupInfo.fundCount, 0) AS fundCount,
(SELECT COUNT(*)
FROM Dv_Topic
WHERE Dv_Topic.BoardID = uu_GroupInfo.subforum_id) AS group_articleNum,
(SELECT COUNT(*)
FROM uu_GroupPhotos
WHERE uu_GroupPhotos.group_id = uu_GroupInfo.group_id) AS group_PhotoNum,
uu_GroupInfo.topic_account, uu_GroupInfo.hit_account,
(SELECT user_name
FROM uu_RegisterUser
WHERE uu_RegisterUser.user_id = uu_GroupInfo.creator_id)
AS group_CreatorName, uu_GroupInfo.create_time
FROM uu_GroupInfo INNER JOIN
uu_GroupType ON
uu_GroupInfo.group_type_id = uu_GroupType.group_type_id
三,存儲過程的創建和調用
1,存儲過程的調用
復制代碼 代碼如下:
Execute procedureName @param='value'
2,一個典型的帶參數存儲過程
復制代碼 代碼如下:
CREATE PROCEDURE P_delMiniclassProc
@miniClassroom_id int
AS
declare @billtag varchar(4)
set nocount on
IF @miniClassroom_id is null
begin
return(-1)
end
else
BEGIN TRANSACTION
--刪除套餐信息
DELETE FROM uu_SuiteToMinClassroomSect
WHERE min_classroom_sect_id IN
(SELECT min_classroom_sect_id
FROM uu_MinClassroomSect
WHERE min_classroom_id =@miniClassroom_id)
--刪除小課堂段信息
delete from uu_MinClassroomSect
where min_classroom_id = @miniClassroom_id
--刪除小課堂用戶購買記錄
delete from uu_UserBuyMinClassroom
where min_classroom_id = @miniClassroom_id
--刪除對應小課堂年級學科信息
delete from uu_MinClassroomToGradeClass
where min_classroom_id = @miniClassroom_id
--刪除小課堂發言
delete from uu_MinClassroomDiscuss
where min_classroom_id = @miniClassroom_id
--刪除課程討論
DELETE FROM uu_CourseDiscuss
WHERE course_id IN
(SELECT course_id
FROM uu_CourseInfo
WHERE min_classroom_id = @miniClassroom_id)
--刪除用戶課程收藏
SQL語句的優化是將性能低下的SQL語句轉換成目的相同的性能優異的SQL語句。
人工智能自動SQL優化就是使用人工智能技術,自動對SQL語句進行重寫,從而找到性能最好的等效SQL語句。
數據庫性能的優化
一個數據庫系統的生命周期可以分成:設計、開發和成品三個階段。在設計階段進行數據庫性能優化的成本最低,收益最大。在成品階段進行數據庫性能優化的成本最高,收益最小。
數據庫的優化通常可以通過對網絡、硬件、操作系統、數據庫參數和應用程序的優化來進行。最常見的優化手段就是對硬件的升級。根據統計,對網絡、硬件、操作系統、數據庫參數進行優化所獲得的性能提升,全部加起來只占數據庫系統性能提升的40%左右,其余的60%系統性能提升來自對應用程序的優化。許多優化專家認為,對應用程序的優化可以得到80%的系統性能的提升。
應用程序的優化
應用程序的優化通常可分為兩個方面:源代碼和SQL語句。由於涉及到對程序邏輯的改變,源代碼的優化在時間成本和風險上代價很高,而對數據庫系統性能的提升收效有限。
為什麼要優化SQL語句
. SQL語句是對數據庫進行操作的惟一途徑,對數據庫系統的性能起著決定性的作用。
. SQL語句消耗了70%至90%的數據庫資源。
. SQL語句獨立於程序設計邏輯,對SQL語句進行優化不會影響程序邏輯。
. SQL語句有不同的寫法,在性能上的差異非常大。
. SQL語句易學,但難精通。
優化SQL語句的傳統方法是通過手工重寫來對SQL語句進行優化。DBA或資深程序員通過對SQL語句執行計劃的分析,依靠經驗,嘗試重寫SQL語句,然後對結果和性能進行比較,以試圖找到性能較佳的SQL語句。這種傳統上的作法無法找出SQL語句的所有可能寫法,且依賴於人的經驗,非常耗費時間。
SQL優化技術的發展歷程
第一代SQL優化工具是執行計劃分析工具。這類工具針對輸入的SQL語句,從數據庫提取執行計劃,並解釋執行計劃中關鍵字的含義。
第二代SQL優化工具只能提供增加索引的建議,它通過對輸入的SQL語句的執行計劃的分析,來產生是否要增加索引的建議。
第三代SQL優化工具不僅分析輸入SQL語句的執行計劃,還對輸入的SQL語句本身進行語法分析,經過分析產生寫法上的改進建議。
人工智能自動SQL優化
SQL語句性能優化--LECCO SQL Expert
圖1 人工智能自動SQL優化示意圖
人工智能自動SQL優化出現在90年代末。目前在商用數據庫領域,LECCO Technology Limited(靈高科研有限公司)擁有該技術,並提供使用該技術的自動優化產品LECCO SQL Expert,它支持Oracle(大型網站數據庫平台)、Sybase、MS sql server(WINDOWS平台上強大的數據庫平台)和IBM DB2數據庫平台。該產品針對數據庫應用的開發和維護階段提供的模塊有:SQL語法優化器、PL/SQL集成化開發調試環境(IDE)、掃描器、數據庫監視器等。其核心模塊SQL 語法優化器的工作原理為:①輸入一條源SQL語句;②“人工智能反饋式搜索引擎”對輸入的SQL語句,結合檢測到的數據庫結構和索引進行重寫,產生N條等效的SQL語句輸出;③產生的N條等效SQL語句再送入“人工智能反饋式搜索引擎”進行重寫,直至無法產生新的輸出或搜索限額滿;④對輸出的SQL語句進行過濾,選出具有不同執行計劃的SQL語句;⑤對得到的SQL語句進行批量測試,找出性能最好的SQL語句。
LECCO SQL Expert自動優化實例
假設我們從源代碼中抽取出這條SQL語句(也可以通過內帶的掃描器或監視器獲得SQL語句):
復制代碼 代碼如下:
SELECT COUNT(*)
FROM EMPLOYEE
swheresEXISTS (SELECT 'X'
FROM DEPARTMENT
swheresEMP_DEPT=DPT_ID
AND DPT_NAME LIKE 'AC%')
AND EMP_ID IN (SELECT SAL_EMP_ID
FROM EMP_SAL_HIST B
swheresSAL_SALARY > 70000)
按下“優化”按鈕後,經過10幾秒,SQL Expert就完成了優化的過程,並在這10幾秒的時間裡重寫產生了2267 條等價的SQL語句,其中136條SQL語句有不同的執行計劃。
接下來,我們可以對自動重寫產生的136條SQL語句進行批運行測試,以選出性能最佳的等效SQL語句。按下“批運行” 按鈕,在“終止條件” 頁選擇“最佳運行時間SQL語句”,按“確定”。
經過幾分鐘的測試運行後,我們可以發現SQL124的運行時間和反應時間最短。運行速度約有22.75倍的提升(源SQL語句運行時間為2.73秒,SQL124運行時間為0.12秒)。現在我們就可以把SQL124放入源代碼中,結束一條SQL語句的優化工作了。
“邊做邊學式訓練”提升SQL開發水平
LECCO SQL Expert不僅能夠找到最佳的SQL語句,它所提供的“邊做邊學式訓練”還能夠教開發人員和數據庫管理員如何寫出性能最好的SQL語句。LECCO SQL Expert的“SQL比較器”可以標明源SQL和待選SQL間的不同之處。
以上面優化的結果為例,為了查看源SQL語句和SQL124在寫法上有什麼不同,我們可以按下“比較器” 按鈕,對SQL124和源SQL語句進行比較。“SQL 比較器”將SQL124相對於源SQL語句的不同之處以藍顏色表示了出來。如果選擇“雙向比較”復選框,“SQL 比較器”可以將兩條SQL語句的不同之處以藍色表示。當然,我們也可以從源語句和重寫後的SQL 語句中任選兩條進行比較。
從比較的結果可以看到,重寫後的SQL124把第一個Exists改寫成了In;在字段DPT_ID上進行了合並空字符串的操作,以誘導數據庫先執行子查詢中的
復制代碼 代碼如下:
(SELECT DPT_ID||''
FROM DEPARTMENT
WHERE DPT_NAME LIKE 'AC%')
在子查詢完成後,再與EMPLOYEE表進行嵌套循環連接(Nested Loop Join)。
如果覺得對寫法的改變難以理解,還可以點中“執行計劃”復選框,通過比較兩條SQL語句的執行計劃的不同,來了解其中的差異。在查看執行計劃過程中,如果有什麼不明白的地方,可以點中“SQL信息按鈕”,再點擊執行計劃看不明白的地方,LECCO SQL Expert的上下文敏感幫助系統將提供執行計劃該處的解釋。
在“SQL比較器”中,選中“統計信息”復選框後,可得到詳細的兩條SQL語句運行時的統計信息比較,這對於學習不同的SQL寫法對數據庫資源的消耗很有幫助。
LECCO SQL Expert優化模塊的特點
LECCO SQL Expert優化模塊的特點主要表現為:自動優化SQL語句;以獨家的人工智能知識庫“反饋式搜索引擎”來重寫性能優異的SQL語句;找出所有等效的SQL語句及可能的執行計劃;保證產生相同的結果;先進的SQL語法分析器能處理最復雜的SQL語句;可以重寫SELECT、SELECT INTO、UPDATE、INSERT和DELETE語句;通過測試運行,為應用程序和數據庫自動找到性能最好的SQL語句;提供微秒級的計時,能夠優化Web應用程序和有大量用戶的在線事務處理中運行時間很短的SQL語句;為開發人員提供“邊做邊學式訓練”,迅速提高開發人員的SQL編程技能;提供上下文敏感的執行計劃幫助系統和SQL運行狀態幫助;不是猜測或建議,而是獨一無二的SQL重寫解決方案。
寫出專家級的SQL語句
LECCO SQL Expert的出現,使SQL的優化變得極其簡單,只要能夠寫出SQL語句,它就能幫用戶找到最好性能的寫法。LECCO SQL Expert不僅能在很短的時間內找到所有可能的優化方案,而且能夠通過實際測試,確定最有效的優化方案。同以往的數據庫優化手段相比較,LECCO SQL Expert將數據庫優化技術帶到了一個嶄新的技術高度,依賴人的經驗、耗費大量時間、受人的思維束縛的數據庫優化手段已經被高效、省時且准確的自動優化軟件所取代了。通過內建的“LECCO小助手”的幫助,即使是SQL的開發新手,也能快速且簡單地寫出專家級的SQL語句。
比如現在有一人員表 (表名:peosons)
若想將姓名、身份證號、住址這三個字段完全相同的記錄查詢出來
復制代碼 代碼如下:
select p1.* from persons p1,persons p2 where p1.id<>p2.id and p1.cardid = p2.cardid and p1.pname = p2.pname and p1.address = p2.address
可以實現上述效果.
select語句前加:
declare @d datetime
set @d=getdate()
並在select語句後加:
select [語句執行花費時間(毫秒)]=datediff(ms,@d,getdate())
Transact_SQL小手冊
*******************Transact_SQL********************
--語 句 功 能
--數據操作
SELECT --從數據庫表中檢索數據行和列
INSERT --向數據庫表添加新數據行
DELETE --從數據庫表中刪除數據行
UPDATE --更新數據庫表中的數據
--數據定義
CREATE TABLE --創建一個數據庫表
DROP TABLE --從數據庫中刪除表
ALTER TABLE --修改數據庫表結構
CREATE VIEW --創建一個視圖
DROP VIEW --從數據庫中刪除視圖
CREATE INDEX --為數據庫表創建一個索引
DROP INDEX --從數據庫中刪除索引
CREATE PROCEDURE --創建一個存儲過程
DROP PROCEDURE --從數據庫中刪除存儲過程
CREATE TRIGGER --創建一個觸發器
DROP TRIGGER --從數據庫中刪除觸發器
CREATE SCHEMA --向數據庫添加一個新模式
DROP SCHEMA --從數據庫中刪除一個模式
CREATE DOMAIN --創建一個數據值域
ALTER DOMAIN --改變域定義
DROP DOMAIN --從數據庫中刪除一個域
--數據控制
GRANT --授予用戶訪問權限
DENY --拒絕用戶訪問
REVOKE --解除用戶訪問權限
--事務控制
COMMIT --結束當前事務
ROLLBACK --中止當前事務
SET TRANSACTION --定義當前事務數據訪問特征
--程序化SQL
DECLARE --為查詢設定游標
EXPLAN --為查詢描述數據訪問計劃
OPEN --檢索查詢結果打開一個游標
FETCH --檢索一行查詢結果
CLOSE --關閉游標
PREPARE --為動態執行准備SQL 語句
EXECUTE --動態地執行SQL 語句
DESCRIBE --描述准備好的查詢
復制代碼 代碼如下:
---局部變量
declare @id char(10)
--set @id = '10010001'
select @id = '10010001'
---全局變量
---必須以@@開頭
--IF ELSE
declare @x int @y int @z int
select @x = 1 @y = 2 @z=3
if @x > @y
print 'x > y' --打印字符串'x > y'
else if @y > @z
print 'y > z'
else print 'z > y'
--CASE
use pangu
update employee
set e_wage =
case
when job_level = '1' then e_wage*1.08
when job_level = '2' then e_wage*1.07
when job_level = '3' then e_wage*1.06
else e_wage*1.05
end
--WHILE CONTINUE BREAK
declare @x int @y int @c int
select @x = 1 @y=1
while @x < 3
begin
print @x --打印變量x 的值
while @y < 3
begin
select @c = 100*@x + @y
print @c --打印變量c 的值
select @y = @y + 1
end
select @x = @x + 1
select @y = 1
end
--WAITFOR
--例 等待1 小時2 分零3 秒後才執行SELECT 語句
waitfor delay '01:02:03'
select * from employee
--例 等到晚上11 點零8 分後才執行SELECT 語句
waitfor time '23:08:00'
select * from employee
***SELECT***
select *(列名) from table_name(表名) where column_name operator value
ex:(宿主)
select * from stock_information where stockid = str(nid)
stockname = 'str_name'
stockname like '% find this %'
stockname like '[a-zA-Z]%' --------- ([]指定值的范圍)
stockname like '[^F-M]%' --------- (^排除指定范圍)
--------- 只能在使用like關鍵字的where子句中使用通配符)
or stockpath = 'stock_path'
or stocknumber < 1000
and stockindex = 24
not stocksex = 'man'
stocknumber between 20 and 100
stocknumber in(10,20,30)
order by stockid desc(asc) --------- 排序,desc-降序,asc-升序
order by 1,2 --------- by列號
stockname = (select stockname from stock_information where stockid = 4)
--------- 子查詢
--------- 除非能確保內層select只返回一個行的值,
--------- 否則應在外層where子句中用一個in限定符
select distinct column_name form table_name --------- distinct指定檢索獨有的列值,不重復
select stocknumber ,"stocknumber + 10" = stocknumber + 10 from table_name
select stockname , "stocknumber" = count(*) from table_name group by stockname
--------- group by 將表按行分組,指定列中有相同的值
having count(*) = 2 --------- having選定指定的組
select *
from table1, table2
where table1.id *= table2.id -------- 左外部連接,table1中有的而table2中沒有得以null表示
table1.id =* table2.id -------- 右外部連接
select stockname from table1
union [all] ----- union合並查詢結果集,all-保留重復行
select stockname from table2
***insert***
復制代碼 代碼如下:
insert into table_name (Stock_name,Stock_number) value ("xxx","xxxx")
value (select Stockname , Stocknumber from Stock_table2)---value為select語句
***update***
復制代碼 代碼如下:
update table_name set Stockname = "xxx" [where Stockid = 3]
Stockname = default
Stockname = null
Stocknumber = Stockname + 4
***delete***
復制代碼 代碼如下:
delete from table_name where Stockid = 3
truncate table_name ----------- 刪除表中所有行,仍保持表的完整性
drop table table_name --------------- 完全刪除表
***alter table*** --- 修改數據庫表結構
復制代碼 代碼如下:
alter table database.owner.table_name add column_name char(2) null .....
sp_help table_name ---- 顯示表已有特征
create table table_name (name char(20), age smallint, lname varchar(30))
insert into table_name select ......... ----- 實現刪除列的方法(創建新表)
alter table table_name drop constraint Stockname_default ---- 刪除Stockname的default約束
***function(/*常用函數*/)***
----統計函數----
AVG --求平均值
COUNT --統計數目
MAX --求最大值
MIN --求最小值
SUM --求和
復制代碼 代碼如下:
--AVG
use pangu
select avg(e_wage) as dept_avgWage
from employee
group by dept_id
--MAX
--求工資最高的員工姓名
use pangu
select e_name
from employee
where e_wage =
(select max(e_wage)
from employee)
--STDEV()
--STDEV()函數返回表達式中所有數據的標准差
--STDEVP()
--STDEVP()函數返回總體標准差
--VAR()
--VAR()函數返回表達式中所有值的統計變異數
--VARP()
--VARP()函數返回總體變異數
----算術函數----
/***三角函數***/
SIN(float_expression) --返回以弧度表示的角的正弦
COS(float_expression) --返回以弧度表示的角的余弦
TAN(float_expression) --返回以弧度表示的角的正切
COT(float_expression) --返回以弧度表示的角的余切
/***反三角函數***/
ASIN(float_expression) --返回正弦是FLOAT 值的以弧度表示的角
ACOS(float_expression) --返回余弦是FLOAT 值的以弧度表示的角
ATAN(float_expression) --返回正切是FLOAT 值的以弧度表示的角
ATAN2(float_expression1,float_expression2)
--返回正切是float_expression1 /float_expres-sion2的以弧度表示的角
DEGREES(numeric_expression)
--把弧度轉換為角度返回與表達式相同的數據類型可為
--INTEGER/MONEY/REAL/FLOAT 類型
RADIANS(numeric_expression) --把角度轉換為弧度返回與表達式相同的數據類型可為
--INTEGER/MONEY/REAL/FLOAT 類型
EXP(float_expression) --返回表達式的指數值
LOG(float_expression) --返回表達式的自然對數值
LOG10(float_expression)--返回表達式的以10 為底的對數值
SQRT(float_expression) --返回表達式的平方根
/***取近似值函數***/
CEILING(numeric_expression) --返回>=表達式的最小整數返回的數據類型與表達式相同可為
--INTEGER/MONEY/REAL/FLOAT 類型
FLOOR(numeric_expression) --返回<=表達式的最小整數返回的數據類型與表達式相同可為
--INTEGER/MONEY/REAL/FLOAT 類型
ROUND(numeric_expression) --返回以integer_expression 為精度的四捨五入值返回的數據
--類型與表達式相同可為INTEGER/MONEY/REAL/FLOAT 類型
ABS(numeric_expression) --返回表達式的絕對值返回的數據類型與表達式相同可為
--INTEGER/MONEY/REAL/FLOAT 類型
SIGN(numeric_expression) --測試參數的正負號返回0 零值1 正數或-1 負數返回的數據類型
--與表達式相同可為INTEGER/MONEY/REAL/FLOAT 類型
PI() --返回值為π 即3.1415926535897936
RAND([integer_expression]) --用任選的[integer_expression]做種子值得出0-1 間的隨機浮點數
----字符串函數----
ASCII() --函數返回字符表達式最左端字符的ASCII 碼值
CHAR() --函數用於將ASCII 碼轉換為字符
--如果沒有輸入0 ~ 255 之間的ASCII 碼值CHAR 函數會返回一個NULL 值
LOWER() --函數把字符串全部轉換為小寫
UPPER() --函數把字符串全部轉換為大寫
STR() --函數把數值型數據轉換為字符型數據
LTRIM() --函數把字符串頭部的空格去掉
RTRIM() --函數把字符串尾部的空格去掉
LEFT(),RIGHT(),SUBSTRING() --函數返回部分字符串
CHARINDEX(),PATINDEX() --函數返回字符串中某個指定的子串出現的開始位置
SOUNDEX() --函數返回一個四位字符碼
--SOUNDEX函數可用來查找聲音相似的字符串但SOUNDEX函數對數字和漢字均只返回0 值
DIFFERENCE() --函數返回由SOUNDEX 函數返回的兩個字符表達式的值的差異
--0 兩個SOUNDEX 函數返回值的第一個字符不同
--1 兩個SOUNDEX 函數返回值的第一個字符相同
--2 兩個SOUNDEX 函數返回值的第一二個字符相同
--3 兩個SOUNDEX 函數返回值的第一二三個字符相同
--4 兩個SOUNDEX 函數返回值完全相同
QUOTENAME() --函數返回被特定字符括起來的字符串
/*select quotename('abc', '{') quotename('abc')
運行結果如下
----------------------------------{
{abc} [abc]*/
REPLICATE() --函數返回一個重復character_expression 指定次數的字符串
/*select replicate('abc', 3) replicate( 'abc', -2)
運行結果如下
----------- -----------
abcabcabc NULL*/
REVERSE() --函數將指定的字符串的字符排列順序顛倒
REPLACE() --函數返回被替換了指定子串的字符串
/*select replace('abc123g', '123', 'def')
運行結果如下
----------- -----------
abcdefg*/
SPACE() --函數返回一個有指定長度的空白字符串
STUFF() --函數用另一子串替換字符串指定位置長度的子串
----數據類型轉換函數----
CAST() 函數語法如下
CAST() (<expression> AS <data_ type>[ length ])
CONVERT() 函數語法如下
CONVERT() (<data_ type>[ length ], <expression> [, style])
select cast(100+99 as char) convert(varchar(12), getdate())
運行結果如下
------------------------------ ------------
199 Jan 15 2000
----日期函數----
DAY() --函數返回date_expression 中的日期值
MONTH() --函數返回date_expression 中的月份值
YEAR() --函數返回date_expression 中的年份值
DATEADD(<datepart> ,<number> ,<date>)
--函數返回指定日期date 加上指定的額外日期間隔number 產生的新日期
DATEDIFF(<datepart> ,<number> ,<date>)
--函數返回兩個指定日期在datepart 方面的不同之處
DATENAME(<datepart> , <date>) --函數以字符串的形式返回日期的指定部分
DATEPART(<datepart> , <date>) --函數以整數值的形式返回日期的指定部分
GETDATE() --函數以DATETIME 的缺省格式返回系統當前的日期和時間
----系統函數----
APP_NAME() --函數返回當前執行的應用程序的名稱
COALESCE() --函數返回眾多表達式中第一個非NULL 表達式的值
COL_LENGTH(<'table_name'>, <'column_name'>) --函數返回表中指定字段的長度值
COL_NAME(<table_id>, <column_id>) --函數返回表中指定字段的名稱即列名
DATALENGTH() --函數返回數據表達式的數據的實際長度
DB_ID(['database_name']) --函數返回數據庫的編號
DB_NAME(database_id) --函數返回數據庫的名稱
HOST_ID() --函數返回服務器端計算機的名稱
HOST_NAME() --函數返回服務器端計算機的名稱
IDENTITY(<data_type>[, seed increment]) [AS column_name])
--IDENTITY() 函數只在SELECT INTO 語句中使用用於插入一個identity column列到新表中
/*select identity(int, 1, 1) as column_name
into newtable
from oldtable*/
ISDATE() --函數判斷所給定的表達式是否為合理日期
ISNULL(<check_expression>, <replacement_value>) --函數將表達式中的NULL 值用指定值替換
ISNUMERIC() --函數判斷所給定的表達式是否為合理的數值
NEWID() --函數返回一個UNIQUEIDENTIFIER 類型的數值
NULLIF(<expression1>, <expression2>)
--NULLIF 函數在expression1 與expression2 相等時返回NULL 值若不相等時則返回expression1 的值