1. 程式人生 > 程式設計 >MySQL讀寫分離主從複製原理?主從同步時延問題?

MySQL讀寫分離主從複製原理?主從同步時延問題?

面試題

你們有沒有做 MySQL 讀寫分離?如何實現 MySQL 的讀寫分離?MySQL 主從複製原理的是啥?如何解決 MySQL 主從同步的延時問題?

MySQL 主從複製原理的是啥?

主庫將變更寫入 binlog 日誌,然後從庫連線到主庫之後,從庫有一個 IO 執行緒,將主庫的 binlog 日誌拷貝到自己本地,寫入一個 relay 中繼日誌中。接著從庫中有一個 SQL 執行緒會從中繼日誌讀取 binlog,然後執行 binlog 日誌中的內容,也就是在自己本地再次執行一遍 SQL,這樣就可以保證自己跟主庫的資料是一樣的。

這裡有一個非常重要的一點,就是從庫同步主庫資料的過程是序列化的,也就是說主庫上並行的操作,在從庫上會序列執行。所以這就是一個非常重要的點了,由於從庫從主庫拷貝日誌以及序列執行 SQL 的特點,在高併發場景下,從庫的資料一定會比主庫慢一些,是有延時的。所以經常出現,剛寫入主庫的資料可能是讀不到的,要過幾十毫秒,甚至幾百毫秒才能讀取到。

而且這裡還有另外一個問題,就是如果主庫突然宕機,然後恰好資料還沒同步到從庫,那麼有些資料可能在從庫上是沒有的,有些資料可能就丟失了。

所以 MySQL 實際上在這一塊有兩個機制,一個是半同步複製,用來解決主庫資料丟失問題;一個是並行複製,用來解決主從同步延時問題。

這個所謂半同步複製,也叫 semi-sync 複製,指的就是主庫寫入 binlog 日誌之後,就會將強制此時立即將資料同步到從庫,從庫將日誌寫入自己本地的 relay log 之後,接著會返回一個 ack 給主庫,主庫接收到至少一個從庫的 ack 之後才會認為寫操作完成了。

所謂並行複製,指的是從庫開啟多個執行緒,並行讀取 relay log 中不同庫的日誌,然後並行重放不同庫的日誌,這是庫級別的並行。

MySQL 主從同步延時問題(精華)

以前線上確實處理過因為主從同步延時問題而導致的線上的 bug,屬於小型的生產事故。

是這個麼場景。有個同學是這樣寫程式碼邏輯的。先插入一條資料,再把它查出來,然後更新這條資料。在生產環境高峰期,寫併發達到了 2000/s,這個時候,主從複製延時大概是在小几十毫秒。線上會發現,每天總有那麼一些資料,我們期望更新一些重要的資料狀態,但在高峰期時候卻沒更新。使用者跟客服反饋,而客服就會反饋給我們。

我們通過 MySQL 命令:

show status 檢視 Seconds_Behind_Master,可以看到從庫複製主庫的資料落後了幾 ms。

一般來說,如果主從延遲較為嚴重,有以下解決方案:

分庫,將一個主庫拆分為多個主庫,每個主庫的寫併發就減少了幾倍,此時主從延遲可以忽略不計。 開啟 MySQL 支援的並行複製,多個庫並行複製。如果說某個庫的寫入併發就是特別高,單庫寫併發達到了 2000/s,並行複製還是沒意義。 重寫程式碼,寫程式碼的同學,要慎重,插入資料時立馬查詢可能查不到。 如果確實是存在必須先插入,立馬要求就查詢到,然後立馬就要反過來執行一些操作,對這個查詢設定直連主庫。不推薦這種方法,你要是這麼搞,讀寫分離的意義就喪失了。