国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

從Java視角理解系統結構 (一) CPU上下文切換

yuxue / 2193人閱讀

摘要:本文是從視角理解系統結構連載文章在高性能編程時經常接觸到多線程起初我們的理解是多個線程并行地執行總比單個線程要快就像多個人一起干活總比一個人干要快然而實際情況是多線程之間需要競爭設備或者競爭鎖資源,導致往往執行速度還不如單個線程在這里有一個

本文是從Java視角理解系統結構連載文章

在高性能編程時,經常接觸到多線程. 起初我們的理解是, 多個線程并行地執行總比單個線程要快, 就像多個人一起干活總比一個人干要快. 然而實際情況是, 多線程之間需要競爭IO設備, 或者競爭鎖資源,導致往往執行速度還不如單個線程. 在這里有一個經常提及的概念就是: 上下文切換(Context Switch).

上下文切換的精確定義可以參考: http://www.linfo.org/context_switch.html。下面做個簡單的介紹. 多任務系統往往需要同時執行多道作業.作業數往往大于機器的CPU數, 然而一顆CPU同時只能執行一項任務, 如何讓用戶感覺這些任務正在同時進行呢? 操作系統的設計者巧妙地利用了時間片輪轉的方式, CPU給每個任務都服務一定的時間, 然后把當前任務的狀態保存下來, 在加載下一任務的狀態后, 繼續服務下一任務. 任務的狀態保存及再加載, 這段過程就叫做上下文切換. 時間片輪轉的方式使多個任務在同一顆CPU上執行變成了可能,但同時也帶來了保存現場和加載現場的直接消耗。

(Note. 更精確地說, 上下文切換會帶來直接和間接兩種因素影響程序性能的消耗. 直接消耗包括: CPU寄存器需要保存和加載, 系統調度器的代碼需要執行, TLB實例需要重新加載, CPU 的pipeline需要刷掉; 間接消耗指的是多核的cache之間得共享數據, 間接消耗對于程序的影響要看線程工作區操作數據的大小).

在linux中可以使用vmstat觀察上下文切換的次數. 執行命令如下:

$ vmstat 1
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa
 1  0      0 4593944 453560 1118192    0    0    14    12  238   30  6  1 92  1
 0  0      0 4593212 453568 1118816    0    0     0    96  958 1108  4  1 94  2
 0  0      0 4593360 453568 1118456    0    0     0     0  895 1044  3  1 95  0
 1  0      0 4593408 453568 1118456    0    0     0     0  929 1073  4  1 95  0
 0  0      0 4593496 453568 1118456    0    0     0     0 1133 1363  6  1 93  0
 0  0      0 4593568 453568 1118476    0    0     0     0  992 1190  4  1 95  0

vmstat 1指每秒統計一次, 其中cs列就是指上下文切換的數目. 一般情況下, 空閑系統的上下文切換每秒大概在1500以下.

對于我們經常使用的搶占式操作系統來說, 引起上下文切換的原因大概有以下幾種: 1. 當前執行任務的時間片用完之后, 系統CPU正常調度下一個任務 2. 當前執行任務碰到IO阻塞, 調度器將掛起此任務, 繼續下一任務 3. 多個任務搶占鎖資源, 當前任務沒有搶到,被調度器掛起,
繼續下一任務 4. 用戶代碼掛起當前任務, 讓出CPU時間 5. 硬件中斷.

前段時間發現有人在使用futex的WAIT和WAKE來測試context switch的直接消耗(鏈接), 也有人使用阻塞IO來測試context switch的消耗(鏈接).那么Java程序怎么測試和觀察上下文切換的消耗呢?

我做了一個小實驗, 代碼很簡單, 有兩個工作線程. 開始時,第一個線程掛起自己;
第二個線程喚醒第一個線程,再掛起自己; 第一個線程醒來之后喚醒第二個線程,
再掛起自己. 就這樣一來一往,互相喚醒對方, 掛起自己. 代碼如下:

import java.util.concurrent.atomic.AtomicReference;
import java.util.concurrent.locks.LockSupport;

public final class ContextSwitchTest {
    static final int RUNS = 3;
    static final int ITERATES = 1000000;
    static AtomicReference turn = new AtomicReference();

    static final class WorkerThread extends Thread {
        volatile Thread other;
        volatile int nparks;

        public void run() {
            final AtomicReference t = turn;
            final Thread other = this.other;
            if (turn == null || other == null)
                throw new NullPointerException();
            int p = 0;
            for (int i = 0; i < ITERATES; ++i) {
                while (!t.compareAndSet(other, this)) {
                    LockSupport.park();
                    ++p;
                }
                LockSupport.unpark(other);
            }
            LockSupport.unpark(other);
            nparks = p;
            System.out.println("parks: " + p);

        }
    }

    static void test() throws Exception {
        WorkerThread a = new WorkerThread();
        WorkerThread b = new WorkerThread();
        a.other = b;
        b.other = a;
        turn.set(a);
        long startTime = System.nanoTime();
        a.start();
        b.start();
        a.join();
        b.join();
        long endTime = System.nanoTime();
        int parkNum = a.nparks + b.nparks;
        System.out.println("Average time: " + ((endTime - startTime) / parkNum)
                + "ns");
    }

    public static void main(String[] args) throws Exception {
        for (int i = 0; i < RUNS; i++) {
            test();
        }
    }
}

編譯后,在我自己的筆記本上( Intel(R) Core(TM) i5 CPU M 460 @ 2.53GHz, 2
core, 3M L3 Cache) 用測試幾輪,結果如下:

java -cp . ContextSwitchTest
parks: 953495
parks: 953485
Average time: 11373ns
parks: 936305
parks: 936302
Average time: 11975ns
parks: 965563
parks: 965560
Average time: 13261ns

我們會發現這么簡單的for循環, 線性執行會非???不需要1秒, 而執行這段程序需要幾十秒的耗時. 每個上下文切換需要耗去十幾us的時間,這對于程序吞吐量的影響很大.

同時我們可以執行vmstat 1 觀查一下上下文切換的頻率是否變快

$ vmstat 1
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa
 1  0      0 4424988 457964 1154912    0    0    13    12  252   80  6  1 92  1
 0  0      0 4420452 457964 1159900    0    0     0     0 1586 2069  6  1 93  0
 1  0      0 4407676 457964 1171552    0    0     0     0 1436 1883  8  3 89  0
 1  0      0 4402916 457964 1172032    0    0     0    84 22982 45792  9  4 85  2
 1  0      0 4416024 457964 1158912    0    0     0     0 95382 198544 17 10 73  0
 1  1      0 4416096 457964 1158968    0    0     0   116 79973 159934 18  7 74  0
 1  0      0 4420384 457964 1154776    0    0     0     0 96265 196076 15 10 74  1
 1  0      0 4403012 457972 1171096    0    0     0   152 104321 213537 20 12 66  2

再使用strace觀察以上程序中Unsafe.park()究竟是哪道系統調用造成了上下文切換:

$strace -f java -cp . ContextSwitchTest
[pid  5969] futex(0x9571a9c, FUTEX_WAKE_OP_PRIVATE, 1, 1, 0x9571a98, {FUTEX_OP_SET, 0, FUTEX_OP_CMP_GT, 1}) = 1
[pid  5968]  )       = 0
[pid  5969] futex(0x9571ad4, FUTEX_WAIT_PRIVATE, 949, NULL
[pid  5968] futex(0x9564368, FUTEX_WAKE_PRIVATE, 1) = 0
[pid  5968] futex(0x9571ad4, FUTEX_WAKE_OP_PRIVATE, 1, 1, 0x9571ad0, {FUTEX_OP_SET, 0, FUTEX_OP_CMP_GT, 1}
[pid  5969]  )       = 0
[pid  5968]  )       = 1
[pid  5969] futex(0x9571628, FUTEX_WAIT_PRIVATE, 2, NULL

果然還是futex.

再使用perf看看上下文對于Cache的影響:

$ perf stat -e cache-misses   java -cp . ContextSwitchTest
parks: 999999
parks: 1000000
Average time: 16201ns
parks: 998930
parks: 998926
Average time: 14426ns
parks: 998034
parks: 998204
Average time: 14489ns

 Performance counter stats for "java -cp . ContextSwitchTest":

         2,550,605 cache-misses

      90.221827008 seconds time elapsed

1分半鐘內有255萬多次cache未命中.

嗯, 貌似太長了, 可以結束了.接下來會繼續幾篇博文繼續分析一些有意思的東西.
(1) 從Java視角看內存屏障 (Memory Barrier)
(2) 從java視角看CPU親緣性 (CPU Affinity)
等..敬請關注

PS. 其實還做了一個實驗, 測試CPU Affinity對于Context Switch的影響.

$ taskset -c 0 java -cp . ContextSwitchTest
parks: 992713
parks: 1000000
Average time: 2169ns
parks: 978428
parks: 1000000
Average time: 2196ns
parks: 989897
parks: 1000000
Average time: 2214ns

這個命令把進程綁定在0號CPU上,結果Context Switch的消耗小了一個數量級, 什么原因呢? 賣個關子, 在談到CPU Affinity的博文再說 :)。

by Minzhou via ifeve

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/64053.html

相關文章

  • Java編程思想之多線程(

    摘要:多線程技術是個很龐大的課題,編程思想這本書英文版,以下簡稱中也用了頁介紹的多線程體系。一個線程歸屬于唯一的進程,線程無法脫離進程而存在。五線程內數據線程的私有數據僅歸屬于一個線程,不在線程之間共享,例如,,。 多線程技術是個很龐大的課題,《Java編程思想》這本書(英文版,以下簡稱TIJ)中也用了136頁介紹Java的多線程體系。的確,Java語言發展到今天,多線程機制相比其他的語言從...

    taohonghui 評論0 收藏0
  • 三年半Java后端面試經歷

    摘要:經過半年的沉淀,加上對,和分布式這塊的補齊,終于開始重拾面試信心,再次出征。面試官提示沒有提到線程的有內核態的切換,程只在用戶態調度。三面綜合技術面這面面的是陣腳大亂,面試官采用刨根問底的方式提問,終究是面試經驗不夠,導致面試的節奏有點亂。 經過半年的沉淀,加上對MySQL,redis和分布式這塊的補齊,終于開始重拾面試信心,再次出征。 鵝廠 面試職位:go后端開發工程師,接受從Jav...

    kviccn 評論0 收藏0
  • Java視角理解系統結構(二)CPU緩存

    摘要:從視角理解系統結構連載關注我的微博鏈接了解最新動態眾所周知是計算機的大腦它負責執行程序的指令內存負責存數據包括程序自身數據同樣大家都知道內存比慢很多其實在年前的頻率和內存總線的頻率在同一個級別訪問內存只比訪問寄存器慢一點兒由于內存的發展受到 從Java視角理解系統結構連載, 關注我的微博(鏈接)了解最新動態 眾所周知, CPU是計算機的大腦, 它負責執行程序的指令; 內存負責存數據,...

    eternalshallow 評論0 收藏0
  • Java視角理解系統結構(三)偽共享

    摘要:從視角理解系統結構連載關注我的微博鏈接了解最新動態從我的前一篇博文中我們知道了緩存及緩存行的概念同時用一個例子說明了編寫單線程代碼時應該注意的問題下面我們討論更為復雜而且更符合現實情況的多核編程時將會碰到的問題這些問題更容易犯連包作者大師的 從Java視角理解系統結構連載, 關注我的微博(鏈接)了解最新動態 從我的前一篇博文中, 我們知道了CPU緩存及緩存行的概念, 同時用一個例子說...

    asce1885 評論0 收藏0
  • 【Go語言學習】2019-04-24 協程初步討論與簡單擴展

    摘要:它避免了上下文切換的額外耗費,兼顧了多線程的優點,簡化了高并發程序的復雜。而可以理解為一種語言的協程。線程輕量級進程,,是程序執行流的最小單元。一個標準的線程由線程,當前指令指針,寄存器集合和堆棧組成。其實就是或者等語言中的多線程開發。 grape 全部視頻:https://segmentfault.com/a/11... 原視頻地址:https://biglive.xueersi.c...

    SnaiLiu 評論0 收藏0

發表評論

0條評論

yuxue

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<