摘要:收集有關數據庫中表的內容的統計信息。預計的該規劃節點的行平均寬度單位字節。其中上層節點的開銷將包括其所有子節點的開銷。一般而言,頂層的行預計數量會更接近于查詢實際返回的行數。
問題場景
有model Account,SQLAlchemy 查詢語句如下:
query = Account.query.filter(Account.id.in_(account_ids)).order_by(Account.date_created.desc())
這里 uids 如果為空,執行查詢會有如下警告:
/usr/local/lib/python2.7/site-packages/sqlalchemy/sql/default_comparator.py:35: SAWarning: The IN-predicate on "account.id" was invoked with an empty sequence. This results in a contradiction, which nonetheless can be expensive to evaluate. Consider alternative strategies for improved performance. return o[0](self, self.expr, op, *(other + o[1:]), **kwargs)
這里的意思是使用一個空的列表會花費較長的時間,需要優化以提高性能。
為什么會有這個提示呢?一個空列表為什么會影響性能呢?
首先打印 query 可得到如下 sql 語句:
SELECT * // 字段使用 “*” 代替 FROM account WHERE account.id != account.id ORDER BY account.date_created DESC
會發現生成的語句中過濾條件是 WHERE account.id != account.id,使用 PostgreSQL Explain ANALYZE 命令,
EXPLAIN:顯示PostgreSQL計劃程序為提供的語句生成的執行計劃。
ANALYZE:收集有關數據庫中表的內容的統計信息。
分析查詢成本結果如下:
postgres=> EXPLAIN ANALYZE SELECT * FROM account WHERE account.id != account.id ORDER BY account.date_created DESC; QUERY PLAN ---------------------------------------------------------------------------------- Sort (cost=797159.14..808338.40 rows=4471702 width=29) (actual time=574.002..574.002 rows=0 loops=1) Sort Key: date_created DESC Sort Method: quicksort Memory: 25kB -> Seq Scan on account (cost=0.00..89223.16 rows=4471702 width=29) (actual time=573.991..573.991 rows=0 loops=1) Filter: (id <> id) Rows Removed by Filter: 4494173 Planning time: 0.162 ms Execution time: 574.052 ms (8 rows)
先看Postgresql提供的語句生成的執行計劃,通過結果可以看到,雖然返回值為空,但是查詢成本卻還是特別高,執行計劃部分幾乎所有的時間都耗費在排序上,但是和執行時間相比,查詢計劃的時間可以忽略不計。(結果是先遍歷全表,查出所有數據,然后再使用 Filter: (id <> id) 把所有數據過濾。)
按照這個思路,有兩種查詢方案:
1.如果 account_ids 為空,那么直接返回空列表不進行任何操作,查詢語句變為:
if account_ids: query = Account.query.filter(Account.id.in_(account_ids)).order_by(Account.date_created.desc())
2.如果 account_ids 為空,那么過濾方式,查詢語句變為:
query = Account.query if account_ids: query = query.filter(Account.id.in_(account_ids)) else: query = query.filter(False) query = query.order_by(Account.date_created.desc())
如果 account_ids 為空,此時生成的 SQL 語句結果為:
SELECT * FROM account WHERE 0 = 1 ORDER BY account.date_created DESC
分析結果為:
postgres=> EXPLAIN ANALYZE SELECT * FROM account WHERE 0 = 1 ORDER BY account.date_created DESC; QUERY PLAN --------------------------------------------------------------------------------------------------- Sort (cost=77987.74..77987.75 rows=1 width=29) (actual time=0.011..0.011 rows=0 loops=1) Sort Key: date_created DESC Sort Method: quicksort Memory: 25kB -> Result (cost=0.00..77987.73 rows=1 width=29) (actual time=0.001..0.001 rows=0 loops=1) One-Time Filter: false -> Seq Scan on account (cost=0.00..77987.73 rows=1 width=29) (never executed) Planning time: 0.197 ms Execution time: 0.061 ms (8 rows)
可以看到,查詢計劃和執行時間都有大幅提高。
一個測試如果只是去掉方案1排序,查看一下分析結果
使用 PostgreSQL Explain ANALYZE 命令分析查詢成本結果如下:
postgres=> EXPLAIN ANALYZE SELECT * FROM account WHERE account.id != account.id; QUERY PLAN ---------------------------------------------------------------------------- Seq Scan on account (cost=0.00..89223.16 rows=4471702 width=29) (actual time=550.999..550.999 rows=0 loops=1) Filter: (id <> id) Rows Removed by Filter: 4494173 Planning time: 0.134 ms Execution time: 551.041 ms
可以看到,時間和有排序時差別不大。
如何計算查詢成本執行一個分析,結果如下:
postgres=> explain select * from account where date_created ="2016-04-07 18:51:30.371495+08"; QUERY PLAN -------------------------------------------------------------------------------------- Seq Scan on account (cost=0.00..127716.33 rows=1 width=211) Filter: (date_created = "2016-04-07 18:51:30.371495+08"::timestamp with time zone) (2 rows)
EXPLAIN引用的數據是:
0.00 預計的啟動開銷(在輸出掃描開始之前消耗的時間,比如在一個排序節點里做排續的時間)。
127716.33 預計的總開銷。
1 預計的該規劃節點輸出的行數。
211 預計的該規劃節點的行平均寬度(單位:字節)。
這里開銷(cost)的計算單位是磁盤頁面的存取數量,如1.0將表示一次順序的磁盤頁面讀取。其中上層節點的開銷將包括其所有子節點的開銷。這里的輸出行數(rows)并不是規劃節點處理/掃描的行數,通常會更少一些。一般而言,頂層的行預計數量會更接近于查詢實際返回的行數。
這里表示的就是在只有單 CPU 內核的情況下,評估成本是127716.33;
這里 account 表的大小為:
postgres=> select pg_relation_size("account"); pg_relation_size ------------------ 737673216 (1 row)查看塊的大小
Postgresql 會為每個要一次讀取的快添加成本點,使用 show block_size查看塊的大小:
postgres=> show block_size; block_size ------------ 8192 (1 row)計算塊的個數
可以看到每個塊的大小為8kb,那么可以計算從表從讀取的順序塊成本值為:
blocks = pg_relation_size/block_size = 90048
90048 是account 表所占用塊的數量。
查看每個塊需要的成本postgres=> show seq_page_cost; seq_page_cost --------------- 1 (1 row)
這里的意思是 Postgresql 為每個塊分配一個成本點,也就是說上面的查詢需要從90048個成本點。
處理每條數據 cpu 所需時間cpu_tuple_cost:處理每條記錄的CPU開銷(tuple:關系中的一行記錄)
cpu_operator_cost:操作符或函數帶來的CPU開銷。
postgres=> show cpu_operator_cost; cpu_operator_cost ------------------- 0.0025 (1 row) postgres=> show cpu_tuple_cost; cpu_tuple_cost ---------------- 0.01 (1 row)計算
cost 計算公式為:
cost = 磁盤塊個數 塊成本(1) + 行數 cpu_tuple_cost(系統參數值)+ 行數 * cpu_operator_cost
現在用所有值來計算explain 語句中得到的值:
number_of_records = 3013466 # account 表 count block_size = 8192 # block size in bytes pg_relation_size=737673216 blocks = pg_relation_size/block_size = 90048 seq_page_cost = 1 cpu_tuple_cost = 0.01 cpu_operator_cost = 0.0025 cost = blocks * seq_page_cost + number_of_records * cpu_tuple_cost + number_of_records * cpu_operator_cost如何降低查詢成本?
直接回答,使用索引。
postgres=> explain select * from account where id=20039; QUERY PLAN ---------------------------------------------------------------------------------------- Index Scan using account_pkey on account (cost=0.43..8.45 rows=1 width=211) Index Cond: (id = 20039) (2 rows)
通過這個查詢可以看到,在使用有索引的字段查詢時,查詢成本顯著降低。
索引掃描的計算比順序掃描的計算要復雜一些。它由兩個階段組成。參考鏈接
PostgreSQL會考慮random_page_cost和cpu_index_tuple_cost 變量,并返回一個基于索引樹的高度的值。
sqlalchemy-and-empty-in-clause
PostgreSQL查詢性能分析和優化
PostgreSQL學習手冊(性能提升技巧)
PostgreSQL 查詢成本模型
PostgreSQL 查詢計劃時間的計算詳解
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/42526.html
摘要:收集有關數據庫中表的內容的統計信息。預計的該規劃節點的行平均寬度單位字節。其中上層節點的開銷將包括其所有子節點的開銷。一般而言,頂層的行預計數量會更接近于查詢實際返回的行數。 問題場景 有model Account,SQLAlchemy 查詢語句如下: query = Account.query.filter(Account.id.in_(account_ids)).order_by(...
摘要:收集有關數據庫中表的內容的統計信息。預計的該規劃節點的行平均寬度單位字節。其中上層節點的開銷將包括其所有子節點的開銷。一般而言,頂層的行預計數量會更接近于查詢實際返回的行數。 問題場景 有model Account,SQLAlchemy 查詢語句如下: query = Account.query.filter(Account.id.in_(account_ids)).order_by(...
摘要:首先安裝包數據庫的默認編碼為,修改數據表的默認編碼是的一個基本操作,這是需要預先掌握的。生成測試數據接下來創建個課程作者,也就是個類的實例,每個作者對應兩個課程,共個類實例。 首先安裝包sudo pip3 install sqlalchemy 數據庫的默認編碼為 latin1,修改數據表的默認編碼是 MySQL 的一個基本操作,這是需要預先掌握的。不過學習本課程時并不需要這么做,在創建...
閱讀 704·2021-11-15 11:37
閱讀 3322·2021-10-27 14:14
閱讀 6100·2021-09-13 10:30
閱讀 2968·2021-09-04 16:48
閱讀 1935·2021-08-18 10:22
閱讀 2135·2019-08-30 14:19
閱讀 737·2019-08-30 10:54
閱讀 1754·2019-08-29 18:40