系統部署架構圖教程「系統部署架構圖怎麼畫」

淚目,不堪回首!

博主畢業4年了,最近秋招開始了,每次回想起自己的秋招,都感覺到當時自己特別的可惜(菜是原罪),自己當時簡歷上面的項目,只有一個 農資電商平台,當時的秒殺系統還沒有那麼普及(簡歷人均秒殺系統)。

第一次微眾面試

當年自己的八股文背的其實還可以,但是自己的項目就只是一個單機系統,分散式?微服務?什麼玩意?,還記得當時微眾面試,是二面,在一個酒店房間,面試官笑嘻嘻地看著我,說讓我先畫一下我項目裡面的農資電商平台, 我腦子嗡嗡叫,啥?咋畫, 就一個安卓系統,一個前端頁面,和一個後台系統?

大概長這樣子

面試官:你給我畫一下秒殺系統的架構圖

我擦,這也太簡單了吧, 我是不是該畫複雜一點? 或者說,我這個能叫架構嗎?就這樣,猶豫之間,毛線都沒有畫出來… 我記得當時好像畫了個這樣子的玩意。。毫無意外的,嗝屁了~

這玩意有點四不像,不說了,丟臉~
面試官:你給我畫一下秒殺系統的架構圖

第二次微眾面試

第二次微眾面試,畢業有快一年了,抱著試一下的心態,找了個師姐內推, 那時候我在幹啥呢,在搞爬蟲。公司離微眾比較近,就在金蝶那邊,下班了溜過去,跟面試官吧啦了一會八股文,好傢夥,沒一會就掏出了一張紙:

來畫一下你們現在這個爬蟲系統的架構圖!

當時系統的部署架構長這樣吧, 比上面的看起來還簡單一點。

面試官:你給我畫一下秒殺系統的架構圖

但是,我就是畫不出手啊!!!心裡想著太簡單了啊!!這玩意能叫架構嗎?

攤牌了, 我不會畫!

現在想起來,真的太憋屈了,年輕啊!那如果現在來回頭看的話,能怎麼畫呢?

單體系統的部署架構圖

面試官:你給我畫一下秒殺系統的架構圖

爬蟲系統的分層架構圖

面試官:你給我畫一下秒殺系統的架構圖

爬蟲系統的業務架構

面試官:你給我畫一下秒殺系統的架構圖

架構圖

從上面的各個方向描述架構來看,其實即使是單體系統 也能夠畫出不一般的架構圖!(為啥當時我就不會呢!)

最近在看架構相關的內容(華仔的課),在4+1 視圖裡面,從多方面描述了我們的系統,可以參考下面的描述,

面試官:你給我畫一下秒殺系統的架構圖

你的秒殺系統,架構是怎麼樣的?

單體系統

不管你們簡歷吹得多牛逼,我猜你們的服務,大部分都是長這個樣子的,猜對的話點個關注, 只有瀏覽器是分散式的。

面試官:你給我畫一下秒殺系統的架構圖

那我該如何去描述我的單體系統呢?

架構設計的三大原則:

  • 簡單原則
  • 合適原則
  • 演進原則

每一條原則都符合我們大學做的秒殺系統啊!!

簡單原則:一個系統就可以滿足我們秒殺服務的所有動作,沒有太多的中間件依賴

合適原則:在我們的實踐項目中,單體系統是最適合不過的了。(主要是沒錢啊!拆分服務,引入中間件,部署集群,都得錢啊!)

演進原則:這個比較好理解,沒有什麼系統架構是一出生就定下來的,是隨著時間,業務需求,不斷演變出來的。

總結:

我們架構的優勢: 成本低,系統複雜度低,維護成本低,快速定位問題

劣勢:穩定性差,並發量低,擴展性弱等

在梳理架構時,每個方案都有它的優勢和缺點,所以需要了解你目前方案的優缺點。才能更好地向面試官展示你的系統!

服務拆分

好傢夥,參加了個科創比賽,資金到位了,能買更多機器了,那不得將服務優化一下,拆分個微服務系統出來!

面試官:你給我畫一下秒殺系統的架構圖

在這個服務拆分的架構中,我們做了哪些動作?

  • 靜態資源隔離(CDN加速)
  • 代理伺服器(Nginx)
  • 服務拆分,應用獨立部署
  • 服務rpc通信 (rpc框架 & 註冊中心)

1、前後端分離

在單體系統中,我們的靜態資源(Html,JS,CSS 和 IMG)可能都是通過我們服務端進行返回,存在的問題是:

  • 前端代碼維護成本比較高(全棧開發成本也高)
  • 前端代碼發布,需要整個系統進行發布
  • 伺服器帶寬,請求資源佔用等

那麼通過前後端分離所帶來的好處就很明顯了:

  • 代碼獨立維護(低耦合),發布成本低(高效率)
  • 前後端通過介面交互動態數據
  • CDN資源訪問加速,減少後端服務壓力(高性能)

2、反向代理

反向代理的作用比較明顯, 由於我們服務拆分成多個,那麼我們和前端進行交互時,需要提供一個通用的入口。而這個入口,就是我們的反向代理伺服器(Nginx)。例如:服務域名:https://www.jiuling.com ,根據restful規範,我們可以通過 https://www.jiuling.com/user/1.0/login 將請求轉發到 用戶服務的登錄介面中。

3.進程間通信

隨著服務的拆分,在部分功能的實現上,就會涉及到服務間相互調用的情況,例如:

面試官:你給我畫一下秒殺系統的架構圖

在常見的實現方案上,我們會採用 註冊中心 和 RPC框架,來實現這一能力。而我們比較常用的實現方案就是 zookeeper & dubbo。

面試官:你給我畫一下秒殺系統的架構圖

為什麼要使用 RPC 框架?

當我們提到使用 RPC框架 的時候,是否有去思考過,為什麼要使用 RPC框架? 每個服務提供 RESTful 介面,不是也能夠完成服務間通信嗎?

這裡就需要進行對比 RPC 和 RESTful 的區別了:

  • 數據報文小&傳輸效率快:RPC簡化了傳輸協議中一些必要的頭部信息,從而加快了傳輸效率。
  • 開發成本低:例如 Dubbo框架,封裝好了服務間調用的邏輯(如:反射,建連和超時控制等),只需要開發相應的介面和數據模型即可。
  • 服務治理: 在分散式場景下,我們的服務提供者不止一台,那麼就涉及到 服務健康,負載均衡和服務流控等情況需要處理,而這部分能力在rpc & 註冊中心 的架構下,都已經滿足了。

說完優點後,再來分析一下,RPC的缺點:

  • 耦合性強:相較於 RESTful而言,RPC 框架在跨語言的場景下實現比較困難。並且版本依賴比較強。服務脫離了當前內網環境後,無法正常提供服務,遷移成本高。
  • 內網調用:RPC更適合內網傳輸,在公網環境下,顯得沒那麼安全。

分散式微服務

在上一個版本的服務拆分中, 我們根據不同的業務邊界,功能職責,劃分出了多個子系統,而針對不同的系統,他所承受的負載壓力是不一樣的,例如:訂單服務的每個請求處理耗時較長(其他服務壓力不大),為了提升我們的下單量,我們可以只擴容訂單服務即可,這就是我們在服務拆分所帶來的收益,性能使用率提升!

面試官:你給我畫一下秒殺系統的架構圖

從上面的圖我們可以看到,有些服務出現了不同的重影,每一個方塊,可以理解為一台機器,在這個架構中, 為了保證我們的下單成功率,以及下單量,我們主要將伺服器集中在了訂單服務。

除此之前,再來看看我們的中間件集群部署:

  • mysql 主從架構:讀寫分離,減輕主庫壓力,確保數據能正常寫入,保障訂單數據落庫.
  • zookeeper 主從架構:保障註冊中心可用,避免導致全鏈路雪崩。
  • redis 哨兵集群:避免redis宕機導致大流量直接打到資料庫中。

小結

到這裡為止,一般我們自己開發的系統,也就基本完成了整個秒殺系統的演進了。可能大夥一直有個疑問,為什麼少了我們最熟悉的MQ呢?

在整個調用鏈路中,我都是以同步調用的方式去講述這一個秒殺系統的架構,因為這個已經滿足我們當前的流量訴求了,在架構設計的原則裡面,提到的,合適原則,和演進原則。在當前滿足流量需求的情況下,我們需要先思考引入消息中間件,帶來的問題是什麼?解決的問題又是什麼?在權衡利弊後,才是我們決策是否要使用這個方案的時候。

高性能

在上述架構演進的過程中,我們通過服務拆分,垂直擴容,分散式部署等方式,提升了我們架構的性能和穩定性,對於我們自研階段的架構演進已經是足夠滿足我們的流量訴求了,但如果我們想繼續優化我們的系統,提升服務性能,可以從以下幾個方面進行優化:

  • 資源預熱
  • 緩存預熱
  • 非同步調用

1、資源預熱

在上面的服務拆分階段, 我們就提到了資源動靜分離, 這裡的靜態資源包括:html,js,css,img 等。我們活動階段,可以通過後台管理系統,將商品服務中的活動的靜態資源預熱到CDN,加速資源的訪問。

資源預熱: 通過預先將資源載入到CDN
回源:CDN找不到資源後,會觸發源站(商品服務)調用,進行查詢對應資源,如果源站存在該資源,則會返回到CDN中進行緩存。
OSS: 實際存儲靜態資源的服務(可參考阿里雲OSS)
面試官:你給我畫一下秒殺系統的架構圖

上面有反覆提到,引入一個技術的時候,需要同時考慮它所帶來的利和弊,那麼 CDN的風險是什麼呢?

  • 成本 : 比較直接,就是得多花錢!
  • 帶寬 :在大流量的訪問下, CDN 是否能支撐那麼多的帶寬,每個伺服器能支撐的流量是有限的,需要考慮CDN是否能支撐業務的訪問量。
  • CDN命中率: 在CDN命中率低的情況下,比如活動圖片,每一個小時都會發生改變,那麼每次圖片的替換,都會觸發回源操作,這時候的資源訪問效率反而有所下降。

2、緩存預熱

與上面的靜態資源加速相對比,動態數據則需要通過緩存進行性能上的優化,老生常談,為什麼redis 那麼快?

  • 單線程(redis的性能瓶頸並不在這,所以這個不算優勢)
  • 多路I/O復用模型
  • 數據結構簡單
  • 基於內存操作
面試官:你給我畫一下秒殺系統的架構圖

引入 redis 帶來的風險主要有:

  • reids 宕機:單機部署的情況下,會導致大量的服務調用超時,最終引起服務雪崩。可通過Sentinel集群優化。
  • 緩存擊穿:大流量下,緩存MISS和緩存過期等情況,會導致請求穿透到資料庫,如果資料庫扛不住壓力,會造成服務雪崩。可以通過 布隆過濾器進行優化。
  • 數據一致性:緩存數據與DB 的數據一致性問題,需要通過更新策略進行保障。

3、非同步調用

通過非同步的方式,將減庫存成功的用戶,通過消息的方式,發送給訂單服務,進行後續的下單操作。可以在短時間內,將所有的商品銷售出去。整體的流程如下圖所示:

MQ非同步調用為什麼能過提升我們服務的吞吐量呢?

主要原因在於,通過非同步調用的方式,我們將消息投遞過去了,就完成了這一次的請求處理,那麼性能的瓶頸,由訂單服務,轉移到了秒殺服務這裡。通過減少調用依賴,從而提升了整體服務的吞吐量。

面試官:你給我畫一下秒殺系統的架構圖

MQ 帶來的常見問題:

  • 數據一致性
  • 重複消費:由於生產者重複投遞消息,或者消費緩慢導致重複推送消息。需要通過加鎖,消費冪等來保證消費正常。
  • 消息堆積:生產能力遠大於消費能力情況下,會導致消息堆積。
  • MQ可用性:MQ宕機的情況下,需要支持同步調用切換。

這裡不做詳細介紹,後面會專門寫一篇MQ相關的文章。

高可用

能看到這裡真不容易,感謝大家的支持。關於可用性這裡,之前有寫過一篇 # 《高可用實戰》-B站蹦了,關我A站什麼事?感興趣可以看一下。

高可用主要可以從:

  • 動態擴容:根據服務壓力,針對不同服務進行動態擴容。
  • 限流熔斷:可參考我之前的文章:# 《高可用實戰》-B站蹦了,關我A站什麼事?
  • 異地多活: 通過多機房部署,避免物理攻擊!

同城雙活

部署在同一個城市不同區的機房,用專用網路連接。兩個機房距離一般就是幾十千米,網路傳輸速度幾乎和同一個機房相同,降低了系統複雜度、成本。

面試官:你給我畫一下秒殺系統的架構圖

這個模式無法解決極端的災難情況,例如某個城市的地震、水災,此方式是用來解決一些常規故障的,例如機房的火災、停電、空調故障。

異地多活

在上述模式中,沒辦法解決城市級別的服務容災,比如水災,地震等情。而通過異地多活的部署方案,則可以解決這種問題。

但是每個方案都是存在利和弊的,那麼異地多活的弊端主要體現在網路傳輸和數據一致性的問題上!

跨城異地主要問題就是網路傳輸延遲,例如北京到廣州,正常情況下的RTT(Round-Trip Time 往返時延)是50毫秒,
當遇到網路波動等情況,會升到500毫秒甚至1秒,而且會有丟包問題。

物理距離必然導致數據不一致,這就得從「數據」特性來解決,
如果是強一致性要求的數據(如存款餘額),就無法做異地多活。

原創文章,作者:投稿專員,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/202310.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
投稿專員的頭像投稿專員
上一篇 2024-12-06 14:10
下一篇 2024-12-06 14:10

相關推薦

發表回復

登錄後才能評論