雖然大家普遍認為量子力學非常複雜,但這個科學領域,至少允許我們透過實驗去直接向自然界求解。然而,當我轉向經典機率學時,我發現那裡的挑戰似乎更加令人困惑,甚至可以說是一種超越常規的“瘋狂”。在經典機率學中,深層次的理論探索可能會引發更大的混亂和挑戰,與量子力學相比,經典機率學在某些方面可能更加難以理解和掌握。
當科學家或研究者對某個領域或某些理論過於熟悉時,他們可能會變得過於自信,從而忽視其他可能性或新的觀點。這種現象在量子力學的學習過程中尤為明顯,許多初學者試圖用他們所熟悉的經典機率理論來解釋量子力學,這其實是一種誤解,因為機率論本身就是一個極其複雜的概念。
因此,我傾向於將量子力學看作是對現實世界隨機過程的基本模型,這是一個可以透過實驗來驗證的具體領域。量子力學不僅是理論的起點,也是一個不斷發展中的領域,特別是在解釋量子結果方面。
坦誠地說,我對機率論的理解是有限的,並且我懷疑是否真的有人能完全理解它。
經典機率實際上暗示了量子力學
在量子力學中,有一個來自數學視角的獨特見解,認為量子力學的核心特徵——幅度(magnitude)加法,實際上可能是機率存在的根本原因。幅度加法涉及到量子狀態的疊加,這些狀態用複數表示,它們的平方和給出了發現粒子在特定狀態的機率。
在任何自然過程中,所有可能結果的機率之和都是固定的,總是等於1,這說明機率在自然界中的一致性。這個性質與數學中描述向量的平方範數概念相似,即一個向量的各分量平方的和。
將這個概念應用於量子力學,我們可以把量子態想象為一個向量,其分量代表不同狀態的幅度。這些分量的平方和——也就是機率——始終保持不變。透過將機率論中的“可能性”轉換為量子力學中的“狀態”,我們可以看到這兩個概念之間的緊密聯絡,這突出了量子力學對於理解機率本質的重要性。
量子力學中有個至關重要的概念叫么正運算元U(Unitary Operator),因為它們保持機率總和的不變性。類似地,左隨機、右隨機和雙重隨機(馬爾可夫)矩陣在矩陣乘法下形成一個群,就像么正矩陣一樣。
馬爾可夫矩陣,也稱為馬爾可夫轉移矩陣,是用來描述馬爾可夫過程中各狀態之間轉移機率的矩陣。在馬爾可夫過程中,系統的未來狀態只依賴於當前狀態,而與過去的狀態無關。
這些矩陣的特點是它們的行或列元素之和為1,這在描述機率過程中非常關鍵。這些數學概念的結合為理解量子系統的性質提供了深刻的視角。
給定任何作用於有限n維量子空間的么正轉換矩陣U,和一個量子機率幅值狀態向量X,機率(平方大小)位於n×n矩陣下面矩陣的對角線上:
(這裡†代表複共軛轉置),而么正轉換對這個實體的作用是線性的,“旋量”左右作用稱為U的伴隨表示,即
因為么正矩陣的逆是其複共軛轉置。因此,這種伴隨表示是線性的,在矩陣T中保持跡不變,即機率(因為U透過相似變換作用)。因此,每個馬爾可夫矩陣及其對機率向量的線性作用可以作用於包含該機率向量在其主對角線上的n×n矩陣:
的一整個么正矩陣家族的線性、伴隨表示作用來表示。當然,這種對應關係是高度的一對多(馬爾可夫矩陣對么正矩陣),因為我們可以將X的元素乘以任意相位因子而不改變T的主對角線。
實值的么正矩陣稱為“正交”矩陣。么正性實質上是指在複數向量空間中,透過保持向量間的複數內積不變,來維持它們的正交關係。這種性質表明,當向量經過么正變換後,它們之間的正交性(即內積為零的關係)得以保持。
我們的機率直覺從哪裡來?
我們對機率的直觀理解,我相信,並非源於對隨機性或隨機過程的理解(這些概念本身就相當複雜和混亂),而實際上更可能來源於我們對測量的本能認知,例如對面積和體積的直觀感受。
在數學中,機率理論的嚴格處理以測度理論為基礎。測度理論提供了一種精確的方式來定義和處理集合的“大小”,這在機率理論中至關重要。在這個背景下,集合的“大小”可以被理解為該集合內元素髮生的機率。
測度理論是一個高階的數學領域,包含許多新的和複雜的概念,如勒貝格積分。對於只上過一門相關課程的學生來說,這些概念可能會顯得非常難以理解和吸收。儘管測度理論在初學時可能顯得複雜和困難,但其核心目標實際上是將我們對物理世界中的“大小”概念(如長度、面積和體積)進行形式化和公理化。例如,在測度理論中,“面積”和“長度”這些術語被用於描述更一般的集合大小的概念,無論它們是在一維、二維還是更高維度的空間中。
在機率論中,我們將所有可能發生的事件的集合視為一個測度空間,其中每一個點代表了一個特定的事件。更復雜的事件,如由一定規則定義的一組事件,形成了這個空間的子集。為了理解這些事件的機率,我們可以將它們的發生機率想象為它們在測度空間中所佔的比例,類似於在一個目標上盲目投擲飛鏢,飛鏢落點代表發生的事件。因此,一個特定事件發生的機率就是這個事件(子集)在整個測度空間中所佔比例的大小。
在討論測度空間和相關術語時,這些詞語的具體含義僅在與測度空間的概念相聯絡時才成立。這是科學研究的一個常見特點,即透過精確定義術語來消除概念上的不確定性和模糊性。這樣做的目的是為了建立可以透過實驗驗證的清晰模型,確保在科學探究中有一個共同的理解基礎,並使理論可以在實驗中得到檢驗。
許多人自然而然地具有一種理解隨機性的直覺,這種直覺是基於測度理論的。換句話說,即使沒有經過正式的數學教育,很多人似乎能夠本能地把握機率和隨機事件的概念。這種能力可能是人類進化過程中形成的,就像一種內建的、與生俱來的特性。
此外,這種對隨機事件的直覺不僅限於人類,對於動物也是非常重要的。動物需要在充滿不確定性和不可控因素的環境中生存下去,例如天氣變化、食物來源的不確定性等。能夠直觀地理解和預測這些不確定性,對於動物做出有效的生存決策至關重要。這樣的能力有助於它們更好地適應環境,提高在自然選擇中的存活率,進而影響它們的進化過程。
放棄這種直覺
當你深入探索這種直覺時,你會迅速發現情況變得異常神秘且讓人感到不安。
就像量子力學一樣,機率理論包含了多種解釋和理論框架。儘管傳統教育中通常強調頻率主義這種嚴格的機率定義,但在物理學,特別是理論物理學的發展中,需要採用更廣泛的視角,包括考慮那些尚未發生的事件,如“未拋擲的硬幣”。這要求物理學家們不僅侷限於客觀主義的機率觀念,而是更多地融入主觀主義和貝葉斯方法。這些方法為處理不確定性和未知事件提供了更大的靈活性。最重要的是,無論採用哪種機率解釋,都必須透過實驗來驗證這些理論,確保理論物理學的發展與實際物理現象相符合。
頻率主義是一種機率論的解釋和方法論,它定義機率為一個事件在長期重複試驗中發生的相對頻率。根據頻率主義的觀點,機率是一個客觀的量,它反映了特定事件發生的長期趨勢或規律性。
與量子力學不同,機率理論沒有辦法直接透過實驗來測試。事實上,它在物理學中之所以有效,是因為物理結果對預測它們的機率理論非常不敏感!
熱力學中的手法!
玻爾茲曼在熱力學中對能量分佈的推導實際上是基於一種主觀的方法論,這種方法依賴於對稱性的概念。特別是,他使用了被稱為“最大熵”的原則,這是一種理論上的假設,旨在透過假設系統狀態儘可能均勻和隨機來排除任何特定偏好。簡言之,玻爾茲曼的方法強調了在資訊缺乏的情況下,系統傾向於達到可能性分佈最均勻的狀態,即熵最大的狀態。
這裡沒有頻率主義的嚴格性。對於熱力學數量級的分子,這種嚴格性將是完全不可能的。
在這個熱力學模型中,我們考慮一個包含N個相同氣體分子的系統,這些分子可以佔據一系列特定的離散能量狀態,標記為E_j。這個系統被置於絕熱瓶內,因此係統內部的總能量保持恆定,不會有熱量或能量的流入或流出。我們這裡所討論的是能量狀態的離散化,而不是量子化過程。這種離散化是作為對連續能量譜的一種近似。雖然開始時考慮的是離散的能量狀態,但在進一步分析的過程中,這些狀態可以被視為連續譜的一部分,以便更全面地理解系統的特性。
那麼具有能量E_j的分子數量為n_j。如果所有分子的排列都同樣可能,那麼這種特定排列的機率可以透過多項式分佈來找到:
這個近似叫做斯特林近似,它對於熱力學大小的數是非常精確的。由於假設氣體分子數和總能量恆定,我們有約束條件:
現在我們在兩個約束條件下最大化機率 p(n_1,n_2,n_3,…)。由於數字非常大,我們可以將離散的整數視為連續的實數,並簡單地將機率條件與兩個拉格朗日乘數 和 結合起來進行微分,然後將整個方程組置為零,以找到最大似然或最大熵的玻爾茲曼分佈:
我們將在下面回到為什麼要最大化這個問題的原因。
拉格朗日乘數 的倒數 ⁻¹ 很容易被證明與分子的平均能量成正比,因此我們稱 ⁻¹ 為分佈的溫度引數(取模一個用於匹配維度的常數,我們稱之為玻爾茲曼常數 k)。因此,我們通常這樣表示玻爾茲曼分佈:
這或許是熱力學中最重要的方程。它假設系統的總能量是恆定的,分子的數量是恆定的,並且處於“熱力學平衡”,這顯然意味著系統處於其最可能的狀態。發現並假定一個“最有可能”的狀態具有特定的物理意義是一件有趣的事情,但這究竟是為什麼呢?
最大熵是一個非常溫和的假設
如果你對被普遍認為簡單明瞭的機率論論點感到困惑,這實際上是合理的。機率論的某些概念可能對初學者來說並不那麼直觀。然而,機率論在應用中通常非常可靠,因為其結果的健壯性不完全依賴於具體的假設或理論分析。特別是在涉及大量資料時,如大資料定律所示,機率分佈變得更加集中和明確,即使有些初始的理論假設不那麼精確,最終的結果仍然是有效的。
首先,考慮一個簡單的二項機率分佈,比如,從一個紅球佔比43%的總體中抽樣。如果你抽樣十個,那麼你最有可能得到四個或五個紅球,但得到2個、3個、8個或9個的可能性也非常大,甚至全部或沒有紅球的機率大約是0.1%。這表明,在小樣本量時,結果的變化性較大。
然而,如果取一百萬個球,紅球的數量將是430000,誤差比例非常小,大約是1/√N的數量級,這裡大約是0.001。
這種現象揭示了二項分佈隨著樣本量的增大而變得更集中的趨勢,幾乎所有的樣本都緊密圍繞著理論預期的43%分佈。這意味著,對於大量樣本,儘管精確獲得43%的紅球的機率很小,但大多數樣本的結果都會非常接近這一比例。這是大數定律的一個顯著體現,表明在大樣本量下,觀測結果會更加接近理論預期,從而提高了統計結果的可靠性。
我見過的幾乎所有推導都忽略了以下這個強有力的觀點:
分佈變得“越來越尖銳”,以至於幾乎所有的排列都非常像最可能的那個。在大量粒子的熱力學極限下,出現與最可能狀態在宏觀上明顯不同的情況的機率極低,幾乎可以忽略。
所以,在任何大量粒子的系統中,都存在與最可能的宏觀狀態幾乎完全相同的狀態,而幾乎沒有其他狀態。重要的點不是最可能的宏觀狀態最有可能,而是幾乎所有的宏觀狀態看起來都像這個“最可能”的宏觀狀態!一個熱力學系統並不是神奇地選擇最大熵狀態,這個系統像一袋錘子一樣笨!它甚至不會寫“熵”,更不用說“找到”它的最大熵狀態了!最大熵就是最可能的狀態,所以它是最有可能發現系統處於的狀態,但肯定還有其他狀態嗎?是的,但當你做數學計算時,你會發現不像最大熵狀態的狀態實際上有多少,真的令人難以置信!
因此,如果由於某種原因,一個系統發現自己處於一個與最可能狀態顯著不同的狀態,那麼它幾乎肯定會透過其相位空間中的任何隨機行走,達到一個與最可能狀態在宏觀特徵上幾乎相同的狀態。
在熱力學規模的數量分析中,導致結果穩健和一致的並非是複雜的機率理論,而是大數定律的效應。大數定律指出,在大量樣本的情況下,即使基於不同的假設,得出的結果也會趨向於一致性。這意味著在處理大量資料時,推導的結果對具體的假設細節不太敏感,因為大樣本量本身就足以保證結果的準確性和一致性。因此,這類熱力學推導具有很高的健壯性,可以在多種不同假設下產生相同或相似的結果。