理论物理学家们正在借助超级计算机的帮助来推测拉子物理的微妙之处。一项名叫“蒙特卡洛网状模拟的新技术将会告诉他们许多早期宇宙的情况。

在过去20年间,物理学家们已经用量子力学建立起一个描述宇宙在亚原子量级上行为的“标准模型”。他们能用这个模型来推测一些可在自然界观测到的数值,以便与实验得到的结果作比较,如在日内瓦欧洲原子核研究中心(CERN)的正负电子加速器上正在进行一个这样的实验。不幸的是,标准模型的许多具体计算非常困难,物理学家们无法直接进行这样的计算。于是,他们转而根据一种名为网状结构(lattice gauge)理论的技术在超级计算机上进行模拟,以帮助他们提炼和弄清已有的认识。

根据标准模型,宇宙包含着许多不同种类的粒子,这些粒子组成物质和基本的力。每个粒子是根据由一组特定的量子数所决定的性质来识别的,就像房子是按照它们所在的街道地址来辨别的一样。粒子之间最根本的区别在于自旋量子数的不同。那些自旋量子数只能取像0,1,2这样的整数值的粒子叫做玻色子,而自旋量子数为整数的一半——(比如1/2)——的粒子叫做费米子。玻色子和费米子的行为完全不同。

我们最熟悉的玻色子是光子,它是造成光波和无线电波等电磁现象的原因。玻色子的一个重要性质是宇宙法则(laws of the Universe)允许有许多相同的玻色子存在于同一能级中。这也是激光器的工作原理:通过激发某一晶体或气体,激光器能够使许多光子堆叠在同一能级,以突然产生集中的强光束。

另一方面,宇宙中不允许存在2个同样状态的费米子,任何2个同类型的费米子要么位置不同,要么其他量子数不同。费米子的这个基本性质称为泡利不相容原理,它是遍成标准模型中计算困难的原因之一。

已知的基本的费米子要么是轻子,比如电子和它的反粒子正电子,要么是夸克,比如顶夸克和粲夸克。费米子之间通过交换玻色子而相互作用,每一种交换过程都产生不同的基本力:光子是电磁力传递的媒介,电磁力对所有带电粒子起作用;胶子则是核力传递的媒介,它与夸克有联系,等等。

正像电磁场与光子有关一样,规范场与其他各种类型的玻色子有关。这是波粒二象性的一个实例,波粒二象性是量子力学的基本思想之一。为了在很小的尺度上描述宇宙的行为,物理学家们不得不利用数学方法,把粒子看作一把扔在空气中的细砂,而把粒子产生的波看作细砂掉在一池水中产生的波。和产生电磁场的光子一样,电子和其他各种物质组合也具有波粒二象性。

量子力学最重要的特性是它的确定性与测不准性相混合。现实中的费米子不会按固定的次序、以固定的次数交换玻色子,而是存在着与各种可能类型的事件相联系的概率,粒子之间的相互作用是符合这个概率的。某一事件在何时发生是不确定的,但是发生事件的统计结果则遵循某一法则。更重要的是,不同类型的事件彼此间可能相互影响。如果某一事件能以两种方式中的任一种方式发生,那么该事件发生的概率并不是这两种发生方式的概率的简单相加。两个概率可以彼此相加或相减,就像水面上的两列波可以相互加强或抵消一样。

当物理学家们要做量子力学方面的计算时,他们必须考虑到发生事件的各种可能的方式——比如说,从日光灯发出的光子到达一张纸上可能经过的所有路径。这种计算各种概率之和的方法是由美国物理学家理查德 · 费因曼在50年代创立的。由于各种可能性相互影响,物理学家们当然不能先独立地计算各种可能性的概率,然后把它们简单地加起来。这就使得除了一些比较简单的问题以外,要对其他任何问题进行准确的计算非常困难。

传统的(并且是取得很大成功的)规避这个困难的方法是,把产生某种相互作用的各种可能的方式在一定范围内按照粒子间相互作用的次数进行分类,然后忽略那些出现概率很小的可能性。这就好比我们在估计一条快车道上发生交通事故的可能性时,可以假设一旦两辆汽车相撞,它们就不可能在同一次行程中再次相撞。更精确一点的模型考虑两次相撞,但忽略三次相撞,以此类推。每次当我们考虑更多次重复碰撞时,就使先前得到的结果多少改变了一个很小的量。这种分析称为微扰理论(perturbative theory)。

比如说,当2个电子相互作用时,它们可以交流1个、2个或更多个光子。实验中测量到的电子间与光子间相互作用的强度称为电磁耦合常数,其数值大约为1/137,某一种费因曼图出现的概率与事件发生的次数——换言之,就是费因曼图顶点的数值——成反比。双光子发生相互作用的机会是单光子发生相互作用机会的1/137,而三光子相互作用的机会又是双光子相互作用机会的1/137。因为1/137×1/137已经非常小了,而(1/137)3就更小,所以物理学家能够运用微扰分析法得到非常精确的结果。

为了进行计算工作,物理学家们不得不引进一个截止值。这是电子所允许的最高能量的值。尽管截止值只有近似的用处,因为具有很高能量的电子太少了,即使把它们截开也不影响计算结果,另一方面,如果不用截止值,中间计算过程就会产生不合逻辑的无穷大结果。

电磁耦合常数值依赖于一个无法从实验测得的量,该参数名为裸耦合常数。由于无法观测该量,所以物理学家只好根据所采用的图的复杂性选择一个值,来反推出电磁網合常数的值。如果这样做正确话,那么最终的计算结果既与裸耦合常数的取值无关,也与截止值无关。这种使结果与任意选择的参数值无关的过程称为重正化。

只要物理学家把注意力限制在量子电动力学,即QED的范围内,并且仅仅考虑电子和光子,标准模型足够估算某些物理常数的值至小数第10位。但是当物理学家把注意力转向原子核内的粒子时,标准模型应付实际工作就变得困难得多。

核内粒子,比如质子,是由3个夸克在胶子这种产生核力的玻色子的作用下组成的。正如电子带有电荷一样,夸克带有色荷,这将决定他们相互作用的方式(色荷的引进为这一领域起了一个名字,叫做量子色动力学,即QCD)。不幸的是,帮助夸克结合起来的胶子本身也有色荷,这就意味着胶子之间的相互作用情况与夸克一样。这就使QCD比QED更为复杂,因为在QED中光子只与电子有相互作用,光子之间没有相互作用。

此外,描述胶子与夸克间相互作用强度的耦合常数比描述光子与电子间相互作用的耦合常数要大得多。这就意味着在QCD中,与QED不同,对于描述夸克和胶子相互作用的方式来说,非常复杂的费因曼图与简单的图一样重要。因此物理学家只能采取各种不同的计算手段,并要借助于庞大的超级计算机的帮助。

粒子相互作用所处的宇宙的四维时空首先被划分为不连续的网格,即网络。某一程序能够记录下网络中每个点上的费米子。在这种程序中,把费米子聚集起来的规范场被当作网络中连接各点的连线。这个程序考虑的是网络的各种可能的构型出现的概率,并根据它们的概率加权,而不是总和各种费因曼图出现的概率。

在QED中,近似处理法是将复杂性超过一定程度的图忽略掉,只把比较简单的图加起来。而在QCD中,近似的方法是把系统中所有可能的构型的样本都加起来。这就是为什么QCD中的计算工作比QED要多得多的原因——能够有把握忽略的构型数目是极小的。

取样本的过程是这样的。一个模拟程序以适当的概率随机地产生网络构型,然后把这些概率加起来。这个模拟程序称为蒙特卡洛模拟,因为产生网络构型的,过程与掷骰子类似。由于每一种不同的网络构型都被当作大量类似的实际存在的构型的代表,与此相联系的加权结果一定会以某种方式反映出这种模拟构型要代表多少种实际构型,其出现的概率如何。

简易量子色动力学

在蒙特卡洛QCD计算中,费米子之所以引出许多问题是因为有泡利不相容原理。每次产生一个网络构型,程序必须确定没有两个费米子是相同的。要证实这一点的最简单的方法,是引进一个能够简化网络中任意两点间场的相互作用的数学表示法——矩阵。每次只要我们改变这个矩阵中的一个值,就得计算另一个矩阵,第二个矩阵的每一个值与第一个矩阵的每—个值都有联系。这样,网络中的每一个费米子都有机会与其他所有的费米子相互作用。这项计算花费极大,并是QCD如此需要计算机帮助的主要原因——一个每边有8个点的网络总共包含了84=4096个点(因为时空是四维的),因此矩阵就包含4096×4096,大约1600万个数值。

进行这样的矩阵计算时,可以选择的做法是在产生网络构型时忽略费米子,只考虑规范场,在规范场中胶子只与胶子相互作用。这样的模拟称为“约束性的”。比如说,对QED一个约束近似法,不允许光子在两点间运动时分解为一个电子和一个正电子(而在理论上这是可能的)。这就意味着光子之间不能相互作用,这在许多情况下是合理的近似。

在QCD中,约束近似法可以用来计算像质子这样的粒子的质量/以便能够使理论估算值与精确的实验值作一比较。为了做到这一点,就要产生一个充满相互作用的胶子的网络构型,而组成质子的3个夸克被置于1个点上。该模拟随后便开始测量3个夸克怎样沿网络主体移动到胶子发出的力,而并不允许夸克替换胶于或它们发出的力。

为了弄清约束的和非约束的计算法之间的区别,一种较好的方法是考虑弹球玩具。弹子从玩具顶上一个一个地被放开,下落途中随机地撞到一些钉子,最后落到底下的箱子内。如果弹子足够多,各个箱子填充的弹子数近似地形成一条正态曲线。如果我们把弹子看作夸克,把钉子的范围看作充满胶子的网络构型,这种情况就相当于约束近似法。

而与非约束模拟法相似的情况是,当弹子撞到钉子上时,可以把钉子撞弯,那么后面的弹子经过这个地方时,情况可能有一些微小的变化,弹子经过的路途也可能会有一些微小的变化,同时还会把钉子撞得更弯一些,最后弹子在各个箱子中的分配情况也就不一样了。

约束近似法之所以这样令人感兴趣,其中一个原因是物理学家可以实际利用它做有益的模拟。一个典型的约束模拟运行起来比非约束模拟快100倍之多,而在某些情况下,两种方法得到的结果是一样的。模拟中尤其令人感兴趣的地方是QCD中的相变。我们熟悉的许多物质都要经历从一种状态到另一状态的变化——水能变成冰,汽油能变成烟雾等等。在QCD中,相似的变化也是令人感兴趣的,因为这种变化很可能在宇宙诞生的那次大爆炸一发生就产生了。

当温度接近绝对零度时,或者当夸克缺乏时,胶子便会结合起来形成一个叫做胶球的实体。当系统被加热,胶球便最终“熔化”形成一片胶海。如果能弄清这个过程的确切情况,我们就能更多地了解早期宇宙的情况以及宇宙成为今天这个样子的原因。还有可能依靠实验检验相变计算结果。如果有两个很重的原子核,比如两个铀原子核,以极高的速率相撞,它们可能达到很高的温度和密度,重现宇宙初期的情形。通过观察这些由碰撞产生的核子,物理学家可能描述出温度下降时它们的相变特性。

有效的QCD工具

很明显,计算中用到的网络越大,计算结果就越逼真。同样地,网络中两点间的间隔越小,计算就越精确。不过,当网络尺寸增加时,计算所需的时间量增加得更快。如果网络尺寸增加1倍,所需的计算量就增加16倍以上。因此,从80年代初以来,对QCD感兴趣的物理学家已经在设计和制造超级计算机来帮助他们做这类工作。

这种“QCD工具”之所以开始普及,其中一个原因是它同时具备了高速度和(相对的)低代价。普通的计算机,从PC机到主机,都只有一个处理机和一个存贮机。这种类型的计算机常被称为冯 · 诺依曼(Von Neuman)计算机,是以数学家、“计算机之父”约翰 · 冯 · 诺依曼的名字命名的。不过,现在有许多研究人员和厂商正在制造平行计算机,在这种计算机中,许多处理机一起工作,或是同时平行处理同一个问题。

比起传统的冯 · 诺依曼式的计算机来说,平行计算机的有效价值大得多。为了理解这一点,我们考虑设法用火车转移正在不断增加的英国人。一种错误的做法是动员所有的工程技术力量来设计和制造一列速度很快的火车。这样的话,车速很快就会达到某一物理极限,即使不是这样,人员上下车所需的时间最终会超过旅途所需的时间。

好一点的方法是,同时在不同的轨道上开许多火车。尽管这些火车速度慢一些,但比较廉价,并在大多数情况下,一次旅行所需的总时间将减少。这很快就会产生许多一列火车方案中不会碰撞的问题(诸如碰撞、时间表等等),但可带来更大的交通运输能力。

有几家英国公司已处于开发平行计算机的最前列。这样的公司,诸如AMT(原为ICL的子公司,现已脱离)和Meiko of Bristol,已经在制造能在任何方面都能应用的有效而又灵活的平行计算机。与此同时,有一些研究小组,比如著名的爱丁堡大学研究小组,已经成功地研制出这种多种用途的计算机,许多“硬核”QCD的研究工作已经在为此而建造出的计算机上工作。

目前,世界上同类型计算机中最有影响的是由纽约哥伦比亚大学的诺曼 · 克赖斯特(Norman Christ)小组研制的64-处理机计算机。这台机器是1985年4月份制成的16-处理机计算机的改进型,它为QCD计算建立了标准程序。哥伦比亚大学现有的这台计算机在处理一个每边有24个元素的网络时,运算速度可达每秒6.5万亿次,或6.5吉拍。同样在纽约,IBM公司的约翰 · 沃森(John Watson)研究中心正在研制的GF11型超级计算机有576个处理机,这台机器制成后,运算速度可达10吉拍以上。

在美国以外,有两个研究小组最引人注目。一个在日本的筑波大学,那儿有一台运算速度达7吉拍、名叫QCDPAX的机器,该机目前正处于将自身体积增大一倍的工作中。另一个在意大利,名为APE(bee)的项目聚集了来自好几所大学的专家们,正在研制一台运算速度为1吉拍的计算机。APE项目还计划在一年内研制出一台运算速度达理论峰值100吉拍的新的计算机。

在英国,科学与工程研究理事会(SERC)最近向爱丁堡大学的爱丁堡平行计算机中心(EPCC)提供了S0万英镑专款,以资助他们安装设备,使计算机有可能以2吉拍的速度维持运行。自1987年以来,爱丁堡的研究人员已经在一台Meiko公司制造的,名叫“计算面”的大型平行计算机上进行QED和QCD的计算。SERC的专款已被用来购买一台新的机器,该机包含了32块Meiko公司的新的高性能板,每块板上带有2个i860微处理机,其运算速度最快可达70兆拍。这种新的计算工具正在被剑桥、格拉斯哥、利物浦、牛津、南安普顿以及爱丁堡大学的粒子物理学家用来研究物质的基本性质。

QCD的研究者们带头发展了一种新型的科学方法,以模拟代替直接计算。标准模型是一种好的物理理论,但他不能仅靠纸和笔得到的数值结果来检验实验,检验实验的唯一手段是按如上所述的方法做长时间的、复杂的和代价昂贵的计算。这就把许多物理学家变成了程序编制员,正如300年前牛顿发明了微积分而把哲学家变成数学家一样。

[New Scientist,1221年1月5日]