Oracle服務器進程在完成用戶進程的請求過程中,主要完成如下7個任務:0.sql語句的解析;1.數據塊的讀入db buffer(寫入數據緩存);2.記日志;3.為事務建立回滾段;4.本事務修改數據塊;5.放入dirty list;6.用戶commit或rollback。接下來我們就分別來介紹一下這7個任務的相關知識,希望能夠對您有所幫助。
0.sql語句的解析
下面要講oracle服務器進程如可處理用戶進程的請求,當一用戶進程提交一個sql時:update temp set a=a*2;首先Oracle服務器進程從用戶進程把信息接收到後,在PGA中就要此進程分配所需內存,存儲相關的信息,如在會話內存存儲相關的登錄信息等;
服務器進程把這個sql語句的字符轉化為ASCII等效數字碼,接著這個ASCII碼被傳遞給一個HASH函數,並返回一個hash值,然後服務器進程將到shared pool中的library cache中去查找是否存在相同的hash值,如果存在,服務器進程將使用這條語句已高速緩存在SHARED POOL的library cache中的已分析過的版本來執行,如果不存在,服務器進程將在CGA中,配合UGA內容對sql,進行語法分析,首先檢查語法的正確性,接著對語句中涉及的表,索引,視圖等對象進行解析,並對照數據字典檢查這些對象的名稱以及相關結構,並根據Oracle選用的優化模式以及數據字典中是否存在相應對象的統計數據和是否使用了存儲大綱來生成一個執行計劃或從存儲大綱中選用一個執行計劃,然後再用數據字典核對此用戶對相應對象的執行權限,最後生成一個編譯代碼。
Oracle將這條sql語句的本身實際文本、HASH值、編譯代碼、與此語名相關聯的任何統計數據和該語句的執行計劃緩存在SHARED POOL的library cache中。服務器進程通過SHARED POOL 鎖存器(shared pool latch)來申請可以向哪些共享PL/SQL區中緩存這此內容,也就是說被SHARED POOL鎖存器鎖定的PL/SQL區中的塊不可被覆蓋,因為這些塊可能被其它進程所使用。在SQL分析階段將用到LIBRARY CACHE,從數據字典中核對表、視圖等結構的時候,需要將數據字典從磁盤讀入LIBRARY CACHE,因此,在讀入之前也要使用LIBRARY CACHE鎖存器(library cache pin,library cache lock)來申請用於緩存數據字典。
到現在為止,這個sql語句已經被編譯成可執行的代碼了,但還不知道要操作哪些數據,所以服務器進程還要為這個sql准備預處理數據。
1.數據塊的讀入db buffer
Oracle處理數據,都需要把數據讀取到內存中(即db buffer中),首先服務器進程要判斷所需數據是否在db buffer存在,如果存在且可用,則直接獲取該數據,同時根據LRU算法增加其訪問計數;如果buffer不存在所需數據,則要從數據文件上讀取。首先服務器進程將在表頭部請求TM鎖(保證此事務執行過程其他用戶不能修改表的結構),如果成功加TM鎖,再請求一些行級鎖(TX鎖),如果TM、TX鎖都成功加鎖,那麼才開始從數據文件讀數據,在讀數據之前,要先為讀取的文件准備好buffer空間。服務器進程需要掃面LRU list尋找free db buffer,掃描的過程中,服務器進程會把發現的所有已經被修改過的db buffer注冊到dirty list中,
這些dirty buffer會通過dbwr的觸發條件,隨後會被寫出到數據文件,找到了足夠的空閒buffer,就可以把請求的數據行所在的數據塊放入到db buffer的空閒區域或者覆蓋已經被擠出LRU list的非髒數據塊緩沖區,並排列在LRU list的頭部,也就是在數據塊放入DB BUFFER之前也是要先申請db buffer中的鎖存器,成功加鎖後,才能讀數據到db buffer。
2.記日志
現在數據已經被讀入到db buffer了,現在服務器進程將該語句所影響的並被讀入db buffer中的這些行數據的rowid及要更新的原值和新值及scn等信息從PGA逐條的寫入redo log buffer中。在寫入redo log buffer之前也要事先請求redo log buffer的鎖存器,成功加鎖後才開始寫入,當寫入達到redo log buffer大小的三分之一或寫入量達到1M或超過三秒後或發生檢查點時或者dbwr之前發生,都會觸發lgwr進程把redo log buffer的數據寫入磁盤上的redo file文件中(這個時候會產生log file sync等待事件),已經被寫入redo file的redo log buffer所持有的鎖存器會被釋放,並可被後來的寫入信息覆蓋,redo log buffer是循環使用的。Redo file也是循環使用的,當一個redo file 寫滿後,lgwr進程會自動切換到下一redo file(這個時候可能出現log file switch(checkpoint complete)等待事件)。如果是歸檔模式,歸檔進程還要將前一個寫滿的redo file文件的內容寫到歸檔日志文件中(這個時候可能出現log file switch(archiving needed))。
3.為事務建立回滾段
在完成本事務所有相關的redo log buffer之後,服務器進程開始改寫這個db buffer的塊頭部事務列表並寫入scn,然後copy包含這個塊的頭部事務列表及scn信息的數據副本放入回滾段中,將這時回滾段中的信息稱為數據塊的“前映像“,這個”前映像“用於以後的回滾、恢復和一致性讀。(回滾段可以存儲在專門的回滾表空間中,這個表空間由一個或多個物理文件組成,並專用於回滾表空間,回滾段也可在其它表空間中的數據文件中開辟。)
4.本事務修改數據塊
准備工作都已經做好了,現在可以改寫db buffer塊的數據內容了,並在塊的頭部寫入回滾段的地址。
5. 放入dirty list
如果一個行數據多次update而未commit,則在回滾段中將會有多個“前映像“,除了第一個”前映像“含有scn信息外,其他每個“前映像“的頭部都有scn信息和“前前映像”回滾段地址。一個update只對應一個scn,然後服務器進程將在dirty list中建立一條指向此db buffer塊的指針(方便dbwr進程可以找到dirty list的db buffer數據塊並寫入數據文件中)。
接著服務器進程會從數據文件中繼續讀入第二個數據塊,重復前一數據塊的動作,數據塊的讀入、記日志、建立回滾段、修改數據塊、放入dirty list。當dirty queue的長度達到閥值(一般是25%),服務器進程將通知dbwr把髒數據寫出,就是釋放db buffer上的鎖存器,騰出更多的free db buffer。前面一直都是在說明oracle一次讀一個數據塊,其實Oracle可以一次讀入多個數據塊(db_file_multiblock_read_count來設置一次讀入塊的個數)
說明:
在預處理的數據已經緩存在db buffer或剛剛被從數據文件讀入到db buffer中,就要根據sql語句的類型來決定接下來如何操作。
1>如果是select語句,則要查看db buffer塊的頭部是否有事務,如果有事務,則從回滾段中讀取數據;如果沒有事務,則比較select的scn和db buffer塊頭部的scn,如果前者小於後者,仍然要從回滾段中讀取數據;如果前者大於後者,說明這是一非髒緩存,可以直接讀取這個db buffer塊的中內容。
2>如果是DML操作,則即使在db buffer中找到一個沒有事務,而且SCN比自己小的非髒緩存數據塊,服務器進程仍然要到表的頭部對這條記錄申請加鎖,加鎖成功才能進行後續動作,如果不成功,則要等待前面的進程解鎖後才能進行動作(這個時候阻塞是tx鎖阻塞)。
6.用戶commit或rollback
到現在為止,數據已經在db buffer或數據文件中修改完成,但是否要永久寫到數文件中,要由用戶來決定commit(保存更改到數據文件)和rollback(撤銷數據的更改),下面來看看在commit和rollback時,Oracle都在做什麼。
用戶執行commit命令
只有當sql語句所影響的所有行所在的最後一個塊被讀入db buffer並且重做信息被寫入redo log buffer(僅指日志緩沖區,而不包括日志文件)之後,用戶才可以發去commit命令,commit觸發lgwr進程,但不強制立即dbwr來釋放所有相應db buffer塊的鎖(也就是no-force-at-commit,即提交不強制寫),也就是說有可能雖然已經commit了,但在隨後的一段時間內dbwr還在寫這條sql語句所涉及的數據塊。表頭部的行鎖並不在commit之後立即釋放,而是要等dbwr進程完成之後才釋放,這就可能會出現一個用戶請求另一用戶已經commit的資源不成功的現象。
A .從Commit和dbwr進程結束之間的時間很短,如果恰巧在commit之後,dbwr未結束之前斷電,因為commit之後的數據已經屬於數據文件的內容,但這部分文件沒有完全寫入到數據文件中。所以需要前滾。由於commit已經觸發lgwr,這些所有未來得及寫入數據文件的更改會在實例重啟後,由smon進程根據重做日志文件來前滾,完成之前commit未完成的工作(即把更改寫入數據文件)。
B.如果未commit就斷電了,因為數據已經在db buffer更改了,沒有commit,說明這部分數據不屬於數據文件,由於dbwr之前觸發lgwr(也就是只要數據更改,肯定要先有log),所有DBWR在數據文件上的修改都會被先一步記入重做日志文件,實例重啟後,SMON進程再根據重做日志文件來回滾。其實smon的前滾回滾是根據檢查點來完成的,當一個全部檢查點發生的時候,首先讓LGWR進程將redo log buffer中的所有緩沖(包含未提交的重做信息)寫入重做日志文件,然後讓dbwr進程將db buffer已提交的緩沖寫入數據文件(不強制寫未提交的)。然後更新控制文件和數據文件頭部的SCN,表明當前數據庫是一致的,在相鄰的兩個檢查點之間有很多事務,有提交和未提交的。像前面的前滾回滾比較完整的說法是如下的說明:
A.發生檢查點之前斷電,並且當時有一個未提交的改變正在進行,實例重啟之後,SMON進程將從上一個檢查點開始核對這個檢查點之後記錄在重做日志文件中已提交的和未提交改變,因為dbwr之前會觸發lgwr,所以dbwr對數據文件的修改一定會被先記錄在重做日志文件中。因此,斷電前被DBWN寫進數據文件的改變將通過重做日志文件中的記錄進行還原,叫做回滾,
B. 如果斷電時有一個已提交,但dbwr動作還沒有完全完成的改變存在,因為已經提交,提交會觸發lgwr進程,所以不管dbwr動作是否已完成,該語句將要影響的行及其產生的結果一定已經記錄在重做日志文件中了,則實例重啟後,SMON進程根據重做日志文件進行前滾.
實例失敗後用於恢復的時間由兩個檢查點之間的間隔大小來決定,可以通個四個參數設置檢查點執行的頻率:
Log_checkpoint_interval:決定兩個檢查點之間寫入重做日志文件的系統物理塊(redo blocks)的大小,默認值是0,無限制。
log_checkpoint_timeout: 決定了兩個檢查點之間的時間長度(秒),默認值是1800s。
fast_start_io_target:決定了用於恢復時需要處理的塊的多少,默認值是0,無限制。
fast_start_mttr_target:直接決定了用於恢復的時間的長短,默認值是0,無限制(SMON進程執行的前滾和回滾與用戶的回滾是不同的,SMON是根據重做日志文件進行前滾或回滾,而用戶的回滾一定是根據回滾段的內容進行回滾的。在這裡要說一下回滾段存儲的數據,假如是delete操作,則回滾段將會記錄整個行的數據,假如是update,則回滾段只記錄被修改了的字段的變化前的數據(前映像),也就是沒有被修改的字段是不會被記錄的,假如是insert,則回滾段只記錄插入記錄的rowid。
這樣假如事務提交,那回滾段中簡單標記該事務已經提交;假如是回退,則如果操作是delete,回退的時候把回滾段中數據重新寫回數據塊,操作如果是update,則把變化前數據修改回去,操作如果是insert,則根據記錄的rowid 把該記錄刪除。)
用戶執行rollback
如果用戶rollback,則服務器進程會根據數據文件塊和DB BUFFER中塊的頭部的事務列表和SCN以及回滾段地址找到回滾段中相應的修改前的副本,並且用這些原值來還原當前數據文件中已修改但未提交的改變。如果有多個“前映像”,服務器進程會在一個“前映像”的頭部找到“前前映像”的回滾段地址,一直找到同一事務下的最早的一個“前映像”為止。一旦發出了COMMIT,用戶就不能rollback,這使得COMMIT後DBWR進程還沒有全部完成的後續動作得到了保障。到現在為例一個事務已經結束了。
說明:
TM鎖:符合lock機制的,用於保護對象的定義不被修改。
TX鎖:這個鎖代表一個事務,是行級鎖,用數據塊頭、數據記錄頭的一些字段表示,也是符合lock機制,有resource structure、lock structure、enqueue算法。
關於Oracle事務的完整流程分析的相關知識就介紹到這裡了,希望本次的介紹能夠對您有所收獲!