java 线程安全的原因_Java并发编程——线程安全性深层原因
線程安全性深層原因
這里我們將會從計算機硬件和編輯器等方面來詳細了解線程安全產生的深層原因。
緩存一致性問題
CPU內存架構
隨著CPU的發展,而因為CPU的速度和內存速度不匹配的問題(CPU寄存器的訪問速度非常快,而內存訪問速度相對偏慢),所有在CPU和內存之間出現了多級高速緩存。下圖是現代CPU和內存的一般架構圖:
我們可以看到高速緩存也分為三級緩存,越靠近寄存器的級別緩存訪問速度越快。其中L3 Cache為多核共享的,L1和L2 Cache為單核獨享,而L1又有數據緩存(L1 d)和指令緩存(L1 i)。
正因為高速緩存的出現,各CPU內核從主內存獲取相同的數據將會存在于緩存中,當多核都對此數據進行操作并修改值,此時另外的核心并不知道此值已被其他核心修改,從而出現緩存不一致的問題。
如何解決緩存一致性問題
解決緩存一致性問題一般有兩個方法:
第一個是采用總線鎖,在總線級別加鎖,這樣從內存種訪問到的數據將被當個CPU核心獨占,在多核的情況下對單個資源將是串行化的。這種方式性能上將大打折扣。
第二個是采用緩存鎖,在緩存的級別上進行加鎖。此種方式需要某種協議對緩存行數據進行同步,后面所說的緩存一致行協議便是一種實現。
緩存一致性協議(MESI)
為了解決緩存一致性的問題,一些CPU系列(比如Intel奔騰系列)采用了MESI協議來解決緩存一致性問題。此協議將每個緩存行(Cache Line)使用4種狀態進行標記。
M: 被修改(Modified)
該緩存行只被緩存在該CPU核心的緩存中,并且是被修改過的(dirty),即與主存中的數據不一致,該緩存行中的內存需要在未來的某個時間點(允許其它CPU讀取請主存中相應內存之前)寫回(write back)主存。當被寫回主存之后,該緩存行的狀態會變成獨享(exclusive)狀態。
E: 獨享的(Exclusive)
該緩存行只被緩存在該CPU核心緩存中,它是未被修改過的(clean),與主存中數據一致。該狀態可以在任何時刻當有其它CPU核心讀取該內存時變成共享狀態(shared)。同樣地,當CPU核心修改該緩存行中內容時,該狀態可以變成Modified狀態。
S: 共享的(Shared)
該狀態意味著該緩存行可能被多個CPU緩存,并且各個緩存中的數據與主存數據一致(clean),當有一個CPU修改該緩存行中,其它CPU中該緩存行可以被作廢(變成無效狀態(Invalid))。
I: 無效的(Invalid)
該緩存是無效的(可能有其它CPU核心修改了該緩存行)
在MESI協議中,每個CPU核心的緩存控制器不僅知道自己的操作(local read和local write),每個核心的緩存控制器通過監聽也知道其他CPU中cache的操作(remote read和remote write),再確定自己cache中共享數據的狀態是否需要調整。
local read(LR):讀本地cache中的數據;
local write(LW):將數據寫到本地cache;
remote read(RR):其他核心發生read;
remote write(RW):其他核心發生write;
針對操作,緩存行的狀態遷移圖如下:
指令重排序問題
在我們編程過程中,習慣性程序思維認為程序是按我們寫的代碼順序執行的,舉個例子來說,某個程序中有三行代碼:
int a = 1; // 1
int b = 2; // 2
int c = a + b; // 3
從程序員角度執行順序應該是1 -> 2 -> 3,實際經過編譯器和CPU的優化很有可能執行順序會變成 2 -> 1 -> 3(注意這樣的優化重排并沒有改變最終的結果)。類似這種不影響單線程語義的亂序執行我們稱為指令重排。(后面講Java內存模型也會講到這部分。)
編譯器指令重排
舉個例子,我們先看可以看一段代碼:
class ReorderExample {
int a = 0;
boolean flag = false;
public void write() {
a = 1; // 1
flag = true; // 2
}
public void read() {
if (flag) { // 3
int i = a * a; // 4
}
}
}
在單線程的情況下如果先write再read的話,i的結果應該是1。但是在多線程的情況下,編譯器很可能對指令進行重排,有可能出現的執行順序是2 -> 3 -> 4 -> 1。這個時候的i的結果就是0了。(1和2之間以及3和4之間不存在數據依賴,有關數據依賴在后面的Java內存模型中會講到。)
CPU指令重排
在CPU層面,一條指令被分為多個步驟來執行,每個步驟會使用不同的硬件(比如寄存器、存儲器、算術邏輯單元等)。執行多個指令時采用流水線技術進行執行,如下示意圖:
注意這里出現的”停頓“,出現這個原因是因為步驟22需要步驟13得到結果后才能進行。CPU為了進一般優化:消除一些停頓,這時會將指令3(指令3對指令2和1都沒有數據依賴)移到指令2之前進行運行。這樣就出現了指令重排,根本原因是為了優化指令的執行。
內存系統重排
CPU經過長時間的優化,在寄存器和L1緩存之間添加了LoadBuffer、StoreBuffer來降低阻塞時間。LoadBuffer、StoreBuffer,合稱排序緩沖(Memoryordering Buffers (MOB)),Load緩沖64長度,store緩沖36長度,Buffer與L1進行數據傳輸時,CPU無須等待。
CPU執行load讀數據時,把讀請求放到LoadBuffer,這樣就不用等待其它CPU響應,先進行下面操作,稍后再處理這個讀請求的結果。
CPU執行store寫數據時,把數據寫到StoreBuffer中,待到某個適合的時間點,把StoreBuffer的數據刷到主存中。
因為StoreBuffer的存在,CPU在寫數據時,真實數據并不會立即表現到內存中,所以對于其它CPU是不可見的;同樣的道理,LoadBuffer中的請求也無法拿到其它CPU設置的最新數據;由于StoreBuffer和LoadBuffer是異步執行的,所以在外面看來,先寫后讀,還是先讀后寫,沒有嚴格的固定順序。
由于引入StoreBuffer和LoadBuffer導致異步模式,從而導致內存數據的讀寫可能是亂序的(也就是內存系統的重排序)。
內存屏障
為了解決CPU優化帶來的不可見、重排序的問題,可以使用內存屏障(memory barrier)來阻止一定的優化(在后面介紹Java內存模型也會詳細結合講內存屏障)。不同的CPU架構對內存屏障的實現方式與實現程度非常不一樣,下面我們看下X86架構中內存屏障的實現。
Store Barrier
使所有Store Barrier之前發生的內存更新都是可見的。
Load Barrier
使所有Store Barrier之前發生的內存更新,對Load Barrier之后的load操作都是可見的。
Full Barrier
所有Full Barrier之前發生的操作,對所有Full Barrier之后的操作都是可見的。
延伸
在程序我們常說的三大性質:可見性、原子性、有序性。通過線程安全性深層原因我們能更好的理解這三大性質的根本性原因。(可見性、原子性、有序性會在后面文章中進行詳細講解。)
總結
以上是生活随笔為你收集整理的java 线程安全的原因_Java并发编程——线程安全性深层原因的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: mint java_Linux mint
- 下一篇: java 检查pos机状态_POS机故障