国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

大佬為你揭秘微信支付的系統架構,你想知道的都在這里了

Terry_Tai / 1583人閱讀

摘要:年之前,微信支付業務快速發展,需要一款數據庫能夠安全高效的支撐微信支付商戶系統核心業務,這個重任落在了騰訊數據庫團隊自研上。由于是用于微信支付的核心數據庫,騰訊被定位為安全高效,穩定,可靠的數據庫集群。

歡迎大家前往騰訊云+社區,獲取更多騰訊海量技術實踐干貨哦~

本文由李躍森發表于云+社區專欄

李躍森,騰訊云PostgreSQL首席架構師,騰訊數據庫團隊架構師,負責微信支付商戶系統核心數據庫的架構設計和研發,PostgreSQL-x2社區核心成員,獲多項國家發明專利。從事PG內核開發和架構設計超過10年。

2015年之前,微信支付業務快速發展,需要一款數據庫能夠安全高效的支撐微信支付商戶系統核心業務,這個重任落在了騰訊數據庫團隊自研PostgreSQL上。

2016年7月,騰訊云對外發布云數據庫PostgreSQL,提供騰訊自研的內核優化版和社區版兩個版本,以及提供分布式集群架構(分布式集群內部代號PostgreSQL-XZ)兩種方案。目前云數據庫PostgreSQL在騰訊大數據平臺、廣點通、騰訊視頻等騰訊多個核心業務中穩定運行。

騰訊自研PostgreSQL分布式集群 PostgreSQL-XZ

騰訊PostgreSQL-XZ是由PostgreSQL-XC社區版本地化而來,能支撐水平擴展數據庫集群。雖然PostgreSQL-XC很強大,但在性能、擴展性、安全、運維方面還是有明顯的瓶頸,而騰訊PostgreSQL經過多年的積累,在這些方面都有較大提升和強化。由于是用于微信支付的核心數據庫,騰訊PostgreSQL被定位為安全、高效,穩定,可靠的數據庫集群。下面將以騰訊PostgreSQL-XZ為代表介紹騰訊自研PostgreSQL所做的優化和改進。

一.事務管理系統的優化

PostgreSQL-XC在事務管理系統方案本身有一個明顯的缺點,那就是事務管理機制會成為系統的瓶頸,GTM(Global Transaction Manager全局事務管理器)會限制系統的擴展規模。如圖1所示,是每個請求過來CN(Coordinator 協調節點)都會向GTM申請必需的gxid(全局事務ID)和gsnapshot(全局快照)信息,并把這些信息隨著SQL語句本身一起發往DN(Datanode數據庫節點)進行執行。另外,PostgreSQL-XC的管理機制,只有主DN才會獲取的gxid,而備DN沒有自己的gxid,因此無法提供只讀服務,對系統也是不小的浪費。

圖1

而騰訊PostgreSQL-XZ改進了事務管理機制,改進后,CN不再從GTM獲取gxid和gsnapshot,每個節點使用自己的本地xid(事務ID)和gsnapshot(快照),如此GTM便不會成為系統的瓶頸;并且,DN備機就還可以提供只讀服務,充分利用系統閑置資源。如圖2,優化后的事務管理系統架構如下:

圖2

二.備機只讀實現與優化

當然,事務管理系統的優化為進行備DN只讀提供了基礎,然而原始集群并沒有負載、調度等能力。在這方面,我們也做了大量的創新,總結起來包括:

正常CN和只讀CN進行分離。

正常CN存儲主用DN的元數據信息

只讀CN存儲備用DN的元數據信息

DN之間使用hot standby(熱備份保護)模式進行日志同步

通過這些方式,集群可以提供帶有智能負載能力的備DN只讀功能,充分利用系統資源。

圖3

三.業務最小中斷的擴容方案

業務的快速增長不可避免的需要對資源進行擴容,社區版本的實現使得擴容成本高昂,需要對業務進行長時間的中斷。因為,在社區版本PostgreSQL-XC中,通過 DN=Hash(row) % nofdn的方式決定一條記錄的存儲節點:

也就是說,先對分布列計算hash值,然后使用這個值對集群中的節點個數取模來決定記錄去哪個節點(如圖4)。

這種方案簡單,但實際應用中需要長時間停機擴容。這是因為,擴容后節點數會變多,數據無法按照原有的分布邏輯進行讀寫,需要重新分布節點數據。而再均衡數據需要停機并手工遷移再均衡到各個節點。對于規模較大的交易系統來說,由于原有節點存儲的是海量數據,再均衡過程可能會持續好幾天。相信這是業務完全無法忍受的。

圖4

因此我們引入了一種新的分表方法—sharded table。Shardedtable的數據分布采用如下(圖5)的方式:

引入一個抽象的中間層--shard map。Shard map中每一項存儲shardid和DN的映射關系。

Sharded table中的每條記錄通過Hash(row) % #shardmap entry來決定記錄存儲到哪個shardid,通過查詢shardmap的存儲的DN。

每個DN上存儲分配到本節點shardid信息,進而進行可見性的判斷。

通過上面的方案,在擴容新加節點時,就只需要把一些shardmap中的shardid映射到新加的節點,并把對應的數據搬遷過去就可以了。擴容也僅僅需要切換shardmap中映射關系的,時間從幾天縮短到幾秒。

圖5

四.數據傾斜解決方案

數據傾斜是指,在分布式數據庫系統中會因為物理節點、hash或shard分布原因,導致某些DN物理空間不足,而另外的物理空間剩余較大。例如,如果以商戶作為分布key,京東每天的數據量和一個普通電商的數據量肯定是天地差別。可能某個大商戶一個月的數據就會把一個DN的物理空間塞滿,這時系統只有停機擴容一條路。因此我們必須要有一個有效的手段來解決數據傾斜,保證在表數據分布不均勻時系統仍然能夠高效穩定的運行。

首先我們把系統的DN分為group(如下圖6),每個group里面:

包含一個或者多個DN

每個group有一個shardmap

在建sharded表時,可以指定存儲的group,也就是要么存儲在group1,要么group2

CN可以訪問所有的group,而且CN上也存儲所有表的訪問方式信息

圖6

對于系統中數據量較大用戶進行特別的識別,并為他們創建白名單,使用不同的數據分布邏輯(如下圖7):普通用戶使用默認的數據分布邏輯,也就是:

Shardid = Hash(merchantid) % #shardmap

大商戶使用定制的數據分布邏輯,也就是:

Shardid = Hash(merchantid) % #shardmap + fcreate_timedayoffset from 1970-01-01

圖7

通過在大商戶group分布邏輯中加入日期偏移,來實現同一個用戶的數據在group內部多個節點間均勻分布。從而有效的解決數據分布不均勻問題。

下面是一個例子(如下圖8):

圖8

五.9000W記錄高效排序解決方案

業務在列表查詢場景下會收到如下的查詢SQL:

在微信支付的場景中,某個商戶每天的數據有300W,一個月數據超過9000W條,也就是說PostgreSQL需要面向一個9000W數據級數據進行快速排序,而且業務邏輯要求需要秒級輸出,快速獲取排序結果。

為此,我們提供表定義方案,即建立集群分區表。根據上述需求,可以采用按月分表,即每個月一張表,并對排序字段ffinish_time建立索引,這樣每個分區進行掃描是可以使用索引。

我們再通過一系列執行計劃的優化,CN下推order by和limit offset子句到DN;DN上在執行對應的sql使用使用Merge Append算子對各個子表執行的結果進行匯總輸出,這個算子本身會保證輸出是有序的,也就是說對子表進行索引掃描,同時Merge Append又對各個子表的結果進行歸并,進而保證節點本身的結果是排序的。CN對多個DN的結果同樣使用Merge Append進行歸并,保證整個輸出結果是有序的,從而完成整個排序過程。

下面是我們對排序進行的性能測試結果:

通過在24核CPU,64G內存的機型上進行測試,9000W數據的排序在最短可以在25 ms內完成,QPS最高可達5400。

六.并行優化

隨著當前硬件的發展,系統資源越來越豐富,多CPU大內存成了系統標配,充分利用這些資源可以有效的提升的處理效率優化性能。騰訊在2014年底開始進行PostgreSQL多核執行優化。

目前PostgreSQL9.6社區版也會包含部分并行化特性,但是沒有我們這邊這么豐富,下面介紹下騰訊PostgreSQL并行化的原理和效果:

系統創建一個全局的共享內存管理器,使用bitmap管理算法進行管理

系統啟動時創建一定數據的Executor,這些Executor用來執行執行計劃的碎片

系統會創建一個計劃隊列,所有的Executor都會在任務隊列上等待計劃

每個Executor對應一個任務結果隊列,Executor在輸出結果時就把結果的指針掛到結果隊列中去

計劃隊列,結果隊列,計劃分片執行結果都存放在共享內存管理器中,這樣所有的進程都可以訪問到這些結構

Postgres會話進程在收到sql時,判斷是否可以并行化,并進行任務的分發;在結果隊列中有結果時就讀出返回

我們完成優化的算子:

Seqscan

Hash join

Nestloop join

Remote query

Hash Agg

Sort Agg

Append

通過在24核CPU,64G內存的機型下測試,各個算子的優化結果:

整體來說性能普遍是優化前的10-12倍,優化的效果比較明顯。

七.騰訊PostgreSQL-XZ的兩地三中心容災

兩地三中心容災是金融級數據庫的必備能力,對于金融類業務數據安全是最基本也是最重要訴求,因此我們為了保障高效穩定的數據容災能力,也為PostgreSQL-XZ建設了完善的兩地三中心自動容災能力。具體的兩地三中心部署結構如下:

同城節點間采用強同步方式,保障數據強一致;異地采用專網異步同步。

節點內,每臺物理機上部署CAgent,agent收集機器狀態并進行上報,并進行相應的告警和倒換執行功能。

每個IDC至少部署一個JCenter,JCenter負責收集上報每個agent上報的狀態到ZK集群。這么多個JCenter中只有一個是主用,主用的JCenter除了進行狀態上報還進行故障裁決和倒換。在主用的JCenter異常后,系統通過ZK自動裁決挑選一個備用的JCenter升主。

JCenter和CAgent是兩地三中心的控制和裁決節點。

對于數據庫節點,CN在每個IDC至少部署一個。DN在每個中心部署一個,一個為主,另外兩個并聯作為備機放在主機上,一個為同步備機,另外一個為異步備機。

在主機故障宕機時,JCenter優先選擇同城的備機升主。

目前,騰訊云已經提供云數據庫PostgreSQL的內測使用,并將提供內核優化版和社區版兩個版本來滿足更多客戶的要求。

問答
如何記錄PostgreSQL查詢?
相關閱讀
PostgreSQL新手入門
PostgreSQL配置優化
PostgreSQL主備環境搭建
【每日課程推薦】機器學習實戰!快速入門在線廣告業務及CTR相應知識

此文已由作者授權騰訊云+社區發布,更多原文請點擊

搜索關注公眾號「云加社區」,第一時間獲取技術干貨,關注后回復1024 送你一份技術課程大禮包!

海量技術實踐經驗,盡在云加社區!

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/38995.html

相關文章

  • QQ億級日活躍業務后臺核心技術揭秘

    摘要:本篇文章來自于騰訊和共同舉辦的技術開放日后臺專場出品人傅鴻城的分享,由壹佰案例整理編輯。對于騰訊而言,后臺服務可用性都是四個九,四個九轉化為時間就要求一年內的故障時間不能超過分鐘。 showImg(https://segmentfault.com/img/bVvL5f); 本篇文章來自于騰訊SNG和msup共同舉辦的技術開放日后臺專場出品人傅鴻城的分享,由壹佰案例整理編輯。原文發布在壹...

    Taste 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<