nginx是一款非常優(yōu)秀的反向代理工具,支持請求分發(fā),負(fù)載均衡,以及緩存等等非常實用的功能。在請求處理上,nginx采用的是epoll模型,這是一種基于事件監(jiān)聽的模型,因而其具備非常高效的請求處理效率,單機(jī)并發(fā)能力能夠達(dá)到上百萬。nginx接收到的請求可以通過負(fù)載均衡策略分發(fā)到其下一級的應(yīng)用服務(wù)器,這些服務(wù)器一般是以集群方式部署的,因而在性能不足的情況下,應(yīng)用服務(wù)器可以通過加機(jī)器的方式擴(kuò)展流量。此時,對于一些特大型的網(wǎng)站,性能的瓶頸就來自于nginx了,因為單機(jī)的nginx的并發(fā)能力是有上限的,而nginx本身是不支持集群模式的,因而此時對nginx的橫向擴(kuò)展就顯得尤為重要。
keepalived是一款服務(wù)器狀態(tài)檢測和故障切換的工具。在其配置文件中,可以配置主備服務(wù)器和該服務(wù)器的狀態(tài)檢測請求。也就是說keepalived可以根據(jù)配置的請求,在提供服務(wù)期間不斷向指定服務(wù)器發(fā)送請求,如果該請求返回的狀態(tài)碼是200,則表示該服務(wù)器狀態(tài)是正常的,如果不正常,那么keepalived就會將該服務(wù)器給下線掉,然后將備用服務(wù)器設(shè)置為上線狀態(tài)。
lvs是一款用于四層負(fù)載均衡的工具。所謂的四層負(fù)載均衡,對應(yīng)的是網(wǎng)絡(luò)七層協(xié)議,常見的如HTTP協(xié)議是建立在七層協(xié)議上的,而lvs作用于四層協(xié)議上,也即:傳輸層,網(wǎng)絡(luò)層,數(shù)據(jù)鏈路層和物理層。這里的傳輸層主要協(xié)議有TCP和UDP協(xié)議,也就是說lvs主要支持的方式是TCP和UDP。也正是因為lvs是處于四層負(fù)載均衡上的,因而其處理請求的能力比常見的服務(wù)器要高非常多,比如nginx的請求處理就是建立在網(wǎng)絡(luò)七層上的,lvs的負(fù)載均衡能力是nginx的十倍以上。
通過上面的介紹,我們可以發(fā)現(xiàn),在特大型網(wǎng)站中,應(yīng)用服務(wù)器是可以橫向擴(kuò)容的,而nginx是不支持橫向擴(kuò)容的,此時nginx就會成為性能瓶頸。而lvs是一款負(fù)載均衡工具,因而如果我們結(jié)合lvs和nginx,那么就可以通過部署多臺nginx服務(wù)器,通過lvs的負(fù)載均衡能力,將請求均衡的分發(fā)到各個nginx服務(wù)器上,再由nginx服務(wù)器分發(fā)到各個應(yīng)用服務(wù)器,這樣,我們就實現(xiàn)了nginx的橫向擴(kuò)展了。由于nginx本質(zhì)上也是一款應(yīng)用服務(wù)器,因而其也有可能宕機(jī),因而這里結(jié)合keepalived就可以實現(xiàn)nginx的故障檢測和服務(wù)切換。也就是說,通過keepalived+lvs+nginx,我們實現(xiàn)了nginx的高可用集群模式。
在上面的介紹中,我們會注意到,雖然keepalived+lvs+nginx實現(xiàn)了nginx的集群模式,但是在我們使用nginx的時候,其本身是有一個ip和端口的,默認(rèn)監(jiān)聽的端口是80和443,那么lvs是如何實現(xiàn)將請求分發(fā)給具有不同ip和端口的nginx服務(wù)器的呢?這里就是通過虛擬ip實現(xiàn)的,所謂虛擬ip就是對外提供一個公共的ip,外部客戶端請求的都是這個ip,lvs在接收到虛擬ip的請求之后,通過配置的調(diào)度器和負(fù)載均衡策略,選擇一個目標(biāo)nginx服務(wù)器,然后將請求轉(zhuǎn)發(fā)給該服務(wù)器。這里lvs有兩個概念,就是調(diào)度器和負(fù)載均衡策略,所謂的調(diào)度器指的是lvs將會以何種方式處理請求和響應(yīng)數(shù)據(jù),其主要有三種調(diào)度器:
Virtual Server via Network Address Translation(VS/NAT):這種方式的主要原理是,用戶發(fā)送請求到虛擬ip上后,lvs會根據(jù)負(fù)載均衡算法選擇一個目標(biāo)處理服務(wù),然后將請求報文中的目標(biāo)ip地址修改為計算得到的目標(biāo)服務(wù)器,并且發(fā)送給該服務(wù)器。對于響應(yīng)的報文,調(diào)度器會將目標(biāo)服務(wù)器返回的響應(yīng)數(shù)據(jù)中的源地址修改為虛擬ip地址。通過這種方式,對客戶端而言,其形式上面向的是一臺服務(wù)器。不過這種方式的缺點(diǎn)在于,所有的響應(yīng)數(shù)據(jù)都需要通過調(diào)度器,如果請求量比較大的情況下,那么調(diào)度器就會成為整個系統(tǒng)的瓶頸。
Virtual Server via IP Tunneling(VS/TUN):這種方式主要解決的就是VS/NAT中,響應(yīng)數(shù)據(jù)會經(jīng)過調(diào)度器的問題。同VS/NAT一樣 ,調(diào)度器還是會接收請求的數(shù)據(jù),并且將報文中的目標(biāo)ip修改為目標(biāo)服務(wù)的ip,但是在目標(biāo)服務(wù)處理完數(shù)據(jù)之后,其會直接將響應(yīng)報文中的源ip修改為虛擬ip,然后將請求發(fā)送給客戶端。通過這種方式,響應(yīng)數(shù)據(jù)就由各個目標(biāo)服務(wù)進(jìn)行了處理,而無需通過調(diào)度器進(jìn)行返回,這種方式會大大提高系統(tǒng)的吞吐量,而且由于一般請求報文比響應(yīng)報文小很多,調(diào)度器也只需要處理請求報文,那么系統(tǒng)的整體負(fù)載將會被均攤到各個服務(wù)器上。
Virtual Server via Direct Routing(VS/DR):這種方式相對于VS/TUN,其主要區(qū)別在于,VS/NAT是將請求報文中的ip地址修改為目標(biāo)服務(wù)的ip地址,而VS/DR則是直接將請求報文中的MAC地址修改為目標(biāo)地址,這種方式效率會更高,因為VS/TUN中的ip地址最終還是需要轉(zhuǎn)換為MAC地址來發(fā)送數(shù)據(jù)的。
1. 環(huán)境準(zhǔn)備
2. 軟件安裝
在四臺虛擬機(jī)上,我們以如下方式搭建集群:
這里我們使用172.16.28.130 和172.16.28.131 兩臺機(jī)器作為lvs+keepalived 的工作機(jī)器,也就是說這兩臺機(jī)器的作用主要是進(jìn)行負(fù)載均衡和故障檢測和下線的;我們使用172.16.28.132和172.16.28.133 兩臺機(jī)器作為應(yīng)用服務(wù)器,主要是對外提供服務(wù)的。這四臺服務(wù)器作為整個后端集群服務(wù),并且對外提供的虛擬ip是172.16.28.120 。需要說明的是,這里的keepalived 所檢測的服務(wù)是兩臺lvs 服務(wù)器,這兩臺服務(wù)器,一臺作為master服務(wù)器,一臺作為backup服務(wù)器,兩者在負(fù)載均衡的配置上是完全一樣的。在正常情況下,客戶端請求虛擬ip的時候,lvs 會將該請求轉(zhuǎn)發(fā)到master服務(wù)器上,然后master服務(wù)器根據(jù)配置的負(fù)載均衡策略選擇一臺應(yīng)用服務(wù)器,并且將請求發(fā)送給該應(yīng)用服務(wù)器進(jìn)行處理。如果在某個時刻,lvs的master服務(wù)器由于故障宕機(jī)了,keepalived就會檢測到該故障,并且進(jìn)行故障下線,然后將backup機(jī)器上線用于提供服務(wù),從而實現(xiàn)故障轉(zhuǎn)移的功能。
2.1 lvs+keepalived安裝
在172.16.28.130 和172.16.28.131 上安裝ipvs和keepalived:
在172.16.28.132 和172.16.28.133 上安裝nginx:
需要注意的是,在兩臺nginx服務(wù)器上需要將防火墻關(guān)閉,否則lvs+keepalived的兩臺機(jī)器就無法將請求發(fā)送到兩臺nginx服務(wù)器上來:
查看兩臺負(fù)載均衡機(jī)器是否支持lvs:
如果上述命令沒有任何結(jié)果,則執(zhí)行sudo ipvsadm 命令啟動ipvs之后,再通過上述命令進(jìn)行查看即可。啟動ipvs之后,我們就可以在/etc/keepalived/ 目錄下編輯keepalived.conf 文件,我們以172.16.28.130 機(jī)器作為master機(jī)器,master節(jié)點(diǎn)配置如下:
上面是master節(jié)點(diǎn)上keepalived的配置,對于backup節(jié)點(diǎn),其配置與master幾乎是一致的,只是其state和priority參數(shù)不同。如下是backup節(jié)點(diǎn)的完整配置:
將master和backup配置成完全一樣的原因是,在master宕機(jī)時,可以根據(jù)backup的配置進(jìn)行服務(wù)的無縫切換。
在lvs+keepalived機(jī)器配置完成之后,我們下面配置兩臺應(yīng)用服務(wù)器的nginx配置。這里我們是將nginx作為應(yīng)用服務(wù)器,在其配置文件中配置返回狀態(tài)碼為200,并且會將當(dāng)前主機(jī)的ip返回,如下是其配置:
可以看到,兩臺機(jī)器返回的文本中主機(jī)ip是不一樣的。nginx配置完成后,可以通過如下命令進(jìn)行啟動:
在啟動nginx之后,我們需要配置虛擬ip,這是因為我們使用的lvs調(diào)度器是DR模式,前面我們講到過,這種模式下,對客戶端的響應(yīng)是真實服務(wù)器直接返回給客戶端的,而真實服務(wù)器需要將響應(yīng)報文中的源ip修改為虛擬ip,這里配置的虛擬ip就是起這個作用的。我們編輯/etc/init.d/lvsrs 文件,寫入如下內(nèi)容:
- lo:表示當(dāng)前主機(jī)真實網(wǎng)卡的名稱;
- 172.16.28.120:表示虛擬ip;
編寫完成后運(yùn)行該腳本文件即可。然后將兩臺lvs+keepalived機(jī)器上的keepalived服務(wù)啟動起來即可:
最后可以通過如下命令查看配置的lvs+keepalived的策略:
2.2 集群測試
根據(jù)上述步驟,我們配置完成了一個lvs+keepalived+nginx的集群。在瀏覽器中,我們可以訪問http://172.16.28.120 即可看到如下響應(yīng):
多次刷新瀏覽器之后,可以看到瀏覽器中顯示的文本切換如下,這是因為lvs的負(fù)載均衡策略產(chǎn)生的:
3. 小結(jié)
本文首先對lvs和keepalived的工作原理進(jìn)行了講解,分別介紹了其工作的幾種模式,然后對lvs+keepalived+nginx搭建nginx集群的方式進(jìn)行詳細(xì)講解,并且說明了其中所需要注意的問題。
【責(zé)任編輯:武曉燕 TEL:(010)68476606】