背景
我們使用MySQL存儲了FriendFeed的所有數據。數據庫隨著用戶基數的增長而增長了很多。現在已經存儲了超過2.5億條記錄與一堆涵蓋了從評論和“喜歡”到好友列表的其他數據。
隨著數據的增長,我們也曾迭代地解決了隨著如此迅猛的增長而帶來的擴展性問題。我們的嘗試很有代表性,例如使用只讀mysql從節點和memcache來增加讀取吞吐量,對數據庫進行分片來提高寫入吞吐量。然而,隨著業務的增長,添加新功能比擴展既有功能以迎合更多的流量變得更加困難。
特別的,對 schema 做改動或為超過 1000-2000 萬行記錄的數據庫添加索引會將數據庫鎖住幾個小時。刪除舊索引也要占用這麼多時間,但不刪除它們會影響性能;因為數據庫要持續地在每個INSERT上讀寫這些沒用的區塊,並將重要的區塊擠出了內存。為避免這些問題需要采取一些復雜的措施例如在從節點上設置新的索引,然後將從節點與主節點對調),但這些措施會引發錯誤並且實施起來比較困難,它們阻礙了需要改動 schema/索引才能實現的新功能。由於數據庫的嚴重分散,MySQL 的關系特性(如join)對我們沒用,所以我們決定脫離 RDBMS。
雖然已有許多用於解決靈活 schema 數據存儲和運行時構建索引的問題(例如 CouchDB)的項目。但在大站點中卻沒有足夠廣泛地用到來說服人們使用。在我們看到和運行的測試中,這些項目要麼不穩定,要麼缺乏足夠的測試(參見這個有點過時的關於 CouchDB 的文章)。MySQL 不錯,它不會損壞數據;復制也沒問題,我們已經了解了它的局限。我們喜歡將 MySQL 用於存儲,僅僅是非關系型的存儲。
幾經思量,我們決定在 MySQL 上采用一種無模式的存儲系統,而不是使用一個完全沒接觸過的存儲系統。本文試圖描述這個系統的高級細節。我們很好奇其他大型網站是如何處理這些問題的,另外也希望我們完成的某些設計會對其他開發者有所幫助。
綜述
我們在數據庫中存儲的是無模式的屬性集(例如JSON對象或python字典)。存儲的記錄只需一個名為id的16字節的UUID屬性。對數據庫而言實體的其他部分是不可見的。我們可以簡單地存入新屬性來改變schema(可以簡單理解為數據表中只有兩個字段:id,data;其中data存儲的是實體的屬性集)。
我們通過保存在不同表中的索引來檢索數據。如果想檢索每個實體中的三個屬性,我們就需要三個數據表-每個表用於檢索某一特定屬性。如果不想再用某一索引了,我們要在代碼中停止該索引對應表的寫操作,並可選地刪除那個表。如果想添加個新索引,只需要為該索引新建個MySQL表,並啟動一個進程異步地為該表添加索引數據(不影響運行中的服務)。
最終,雖然我們的數據表增多了,但添加和刪除索引卻變得簡單了。我們大力改善了添加索引數據的進程(我們稱之為“清潔工")使其在快速添加索引的同時不會影響站點。我們可以在一天內完成新屬性的保存和索引,並且我們不需要對調主從MySQL數據庫,也不需要任何其他可怕的操作。
細節
MySQL 使用表保存我們的實體,一個表就像這樣 :
- CREATE TABLE entities (
- added_id INT NOT NULL AUTO_INCREMENT PRIMARY KEY,
- id BINARY(16) NOT NULL,
- updated TIMESTAMP NOT NULL,
- body MEDIUMBLOB,
- UNIQUE KEY (id),
- KEY (updated)
- ) ENGINE=InnoDB;
之所以使用 added_id 個字段是因為 InnoDB 按物理主鍵順序存儲數據,自增長主鍵確保新實例在磁盤上按順序寫到老實體之後,這樣有助於分區讀寫相對老的實體,新實體往往讀操作更頻繁,因為 FriendFeed 的 pages 是按時間逆序排列)。實體本身經 python 字典序列化後使用 zlib 壓縮存儲。
索引單獨存在一張表裡,如果要創建索引,我們創建一張新表存儲我們想要索引的數據分片的所有屬性。例如,一個 FriendFeed 實體通過看上去是這樣的:
- {
- "id": "71f0c4d2291844cca2df6f486e96e37c",
- "user_id": "f48b0440ca0c4f66991c4d5f6a078eaf",
- "feed_id": "f48b0440ca0c4f66991c4d5f6a078eaf",
- "title": "We just launched a new backend system for FriendFeed!",
- "link": "http://friendfeed.com/e/71f0c4d2-2918-44cc-a2df-6f486e96e37c",
- "published": 1235697046,
- "updated": 1235697046,
- }
我們索引實體的屬性 user_id,這樣我們可以渲染一個頁面,包含一個已提交用戶的所有屬性。我們的索引表看起來是這樣的:
- CREATE TABLE index_user_id (
- user_id BINARY(16) NOT NULL,
- entity_id BINARY(16) NOT NULL UNIQUE,
- PRIMARY KEY (user_id, entity_id)
- ) ENGINE=InnoDB;
我們的數據存儲會自動為你維護索引,所以如果你要在我們存儲上述結構實體的數據存儲裡開啟一個實例,你可以寫一段代碼用 python):
- user_id_index = friendfeed.datastore.Index(
- table="index_user_id", properties=["user_id"], shard_on="user_id")
- datastore = friendfeed.datastore.DataStore(
- mysql_shards=["127.0.0.1:3306", "127.0.0.1:3307"],
- indexes=[user_id_index])
- new_entity = {
- "id": binascii.a2b_hex("71f0c4d2291844cca2df6f486e96e37c"),
- "user_id": binascii.a2b_hex("f48b0440ca0c4f66991c4d5f6a078eaf"),
- "feed_id": binascii.a2b_hex("f48b0440ca0c4f66991c4d5f6a078eaf"),
- "title": u"We just launched a new backend system for FriendFeed!",
- "link": u"http://friendfeed.com/e/71f0c4d2-2918-44cc-a2df-6f486e96e37c",
- "published": 1235697046,
- "updated": 1235697046,
- }
- datastore.put(new_entity)
- entity = datastore.get(binascii.a2b_hex("71f0c4d2291844cca2df6f486e96e37c"))
- entity = user_id_index.get_all(datastore, user_id=binascii.a2b_hex("f48b0440ca0c4f66991c4d5f6a078eaf"))
上面的 Index 類在所有實體中查找 user_id,自動維護 index_user_id 表的索引。我們的數據庫是切分的,參數 shard_on 是用來確定索引是存儲在哪個分片上這種情況下使用 entity["user_id"] % num_shards)。
你可以使用索引實例見上面的 user_id_index.get_all)查詢一個索引,使用 python 寫的數據存儲代碼將表 index_user_id 和表 entities 合並。首先在所有數據庫分片中查詢表 index_user_id 獲取實體 ID 列,然後在 entities 提出數據。
新建一個索引,比如,在屬性 link 上,我們可以創建一個新表:
- CREATE TABLE index_link (
- link VARCHAR(735) NOT NULL,
- entity_id BINARY(16) NOT NULL UNIQUE,
- PRIMARY KEY (link, entity_id)
- ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
我們可以修改數據存儲的初始化代碼以包含我們的新索引:
- user_id_index = friendfeed.datastore.Index(
- table="index_user_id", properties=["user_id"], shard_on="user_id")
- link_index = friendfeed.datastore.Index(
- table="index_link", properties=["link"], shard_on="link")
- datastore = friendfeed.datastore.DataStore(
- mysql_shards=["127.0.0.1:3306", "127.0.0.1:3307"],
- indexes=[user_id_index, link_index])
我可以異步構建索引特別是實時傳輸服務):
- ./rundatastorecleaner.py --index=index_link