H ≡ Ey Ix Hz .
(6.32)
Действие приложенного магнитного поля проявляется в повороте вектора
электрического поля от iEx |
до iEx + jEy |
на холловский угол ϕ |
|
|
|
|
|
tgϕ = Ey |
Ex . |
|
|
|
(6.35) |
В отсутствие градиента температуры ( rT = 0 ) плотность тока (6.29) |
примет вид |
|
|
|
|
|
|
|
|
|
|
|
|
e2 |
|
∂f |
3 |
e2 |
|
|
|
∂(ηv) 3 |
|
|
|
|
0 |
|
|
|
|
|
|
|
j = − |
|
∫ τv E |
|
d v − |
|
∫ τv v H |
|
d v = jE |
+ jH . (6.36) |
m |
∂v |
mc |
|
|
|
|
|
|
|
∂v |
|
|
|
|
|
|
|
|
|
|
|
|
|
Первое слагаемое отвечает за плотность тока, вычисленная раньше (6.31).
Второй интеграл зависит от производной ∂(vη)∂v . Для ее определения обратимся к уравнению (6.28) при нулевом градиенте температуры ( rT = 0 )
eτ |
|
∂(vη) |
. |
(6.37) |
|
v H |
|
|
|
|
|
|
∂v |
|
|
mc |
|
|
|
Его решение ищем методом итераций. Предположим, что магнитное поле мало и главный вклад в ( ηv ) дает первый член, т.е. в первом приближении с учетом ∂f0 ∂v = mv ∂f0 ∂ε
∂(ηv) |
|
eτ ∂ |
∂f0 |
|
|
∂f0 |
|
|
= |
|
|
E |
|
|
=eτ |
|
E . |
∂v |
m |
|
∂v |
∂ε |
|
∂v |
|
|
|
|
|
|
|
|
|
|
|
|
|
Подставляя его в (6.37), получаем
|
eτ ∂f0 |
|
e2τ2 |
|
∂f0 |
|
|
. |
ηv = |
|
|
Ev + |
|
|
|
E v H |
|
|
|
|
|
m ∂v |
|
mc |
|
∂ε |
|
|
|
|
|
|
|
|
|
После дифференцирования находим второе приближение
∂(ηv) |
|
∂f0 |
|
e2τ2 |
∂f0 |
|
. |
|
|
=eτ |
|
E + |
|
|
|
E H |
|
|
|
|
|
∂v |
|
∂ε |
|
mc |
|
|
|
|
|
∂ε |
|
|
Если ограничиться этим приближением, то
jH = −mce3 ∫ τ2v ∂∂fε0 (v H E)d3v +a(H2 ) ,
где через a(H2 ) обозначен интеграл, возникающий за счет второго члена в
правой части (6.38). Так как H = Hz k , E = iEx + jEy , то
∫ |
τ2v |
∂f0 |
v H Ed3v = ∫ |
τ2v |
∂f0 |
(vyEx −vxEy )d3vHz = |
|
|
|
∂ε |
|
|
|
|
|
∂ε |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= |
1 |
|
2 3 |
∂f |
dε |
|
|
|
|
|
= − |
2m2 |
2 |
3 |
|
(jEx |
|
3 |
∫ τ v |
∂ε |
Hz |
(jEx −iEy ) |
3h |
3 τ |
(µ)v |
(µ) Hz |
−iEy ) . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Здесь использована замена d3v = 4πv2dv = 4πvdεm и первое приближение
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
фермиевского интеграла. |
|
Поскольку |
v3(µ) = (2µ0 m)3 = 3nh3 |
8πm3 , |
магнитная составляющая плотности тока (6.39) принимает вид |
|
j |
|
= |
eστ(µ) |
(jE |
|
−iE |
)H +a(H2 ). |
(6.40) |
H |
|
|
x |
|
|
|
mc |
|
|
y |
|
z |
|
|
|
|
|
|
|
|
|
|
|
|
Суммарную плотность тока найдем, подставляя (6.40) в (6.36) |
|
j = σE − |
eστ(µ) |
(iE |
|
− jE |
)H +a(H2 ) . |
(6.41) |
|
y |
|
|
|
|
|
mc |
|
|
|
x |
z |
|
|
|
|
|
|
|
|
|
|
|
|
|
Из (6.41) с учетом того, что jz = jy = 0 , определим следующие выражения для составляющих тока и поля
j |
|
= |
σE |
|
− |
eHz τ(µ)σ |
E |
|
+a |
(H2 ), |
(6.42) |
x |
x |
|
|
y |
|
|
|
|
|
|
|
mc |
|
|
x |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
eH |
τ(µ) |
|
|
ay (H2 ) |
|
|
|
E |
|
= − |
|
z |
|
|
E + |
|
|
|
. |
(6.43) |
|
|
y |
|
mc |
|
σ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Э.д.с. Холла содержит член, линейный по Hz . Иная ситуация для тока. Низшая степень магнитного поля, которая входит в выражение для тока, равна двум. В
этом можно убедиться, если подставить (6.43) для Ey в (6.42). Поскольку было принято предположение, что магнитное поле мало, членами, квадратичными по Hz , можно пренебречь. Тогда из последних формул следует
j |
|
= σE |
, |
E |
|
= − |
eHz τ(µ) |
E . |
(6.44) |
x |
y |
|
|
x |
|
|
|
mc |
|
|
|
|
|
|
|
|
|
Коэффициент Холла определяется выражением
273
|
|
= − |
eτ(µ) |
|
= − |
1 |
, |
(6.45) |
H |
mcσ |
|
|
|
nec |
|
|
|
|
|
куда входит только плотность электронов, скорость света (в вакууме) и заряд электрона. Если ток переносится дырками, а не электронами, в (6.45) заменяется −e на +e . Следовательно, измеряя коэффициент Холла, можно получить информацию, как о знаке заряда носителей, так и о плотности свободных электронов.
ПРИЛОЖЕНИЯ
П. 1. ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
П.1.1. Определения и понятия теории вероятностей ( ТВ) . ТВ изучает количественную характеристику массовых явлений. Испытанием в ТВ принято называть реализацию точно установленных предписаний и условий, которые принципиально могут воспроизводиться неограниченное число раз. Результат испытания называется событием.
Если событие A при N одинаковых испытаниях происходит KN (A) −
раз, то величина |
|
WN (A) = KN (A) N |
(П.1.1) |
представляет собой частоту повторения события A в заданной серии испытаний. Если выражение (П.1.1) при N → ∞ стремится к предельному значению
W(A) = lim KN (A) N , |
(П.1.2а) |
N →∞ |
|
то последнее называется вероятностью события. Вероятность некоторого k - го состояния системы может быть определена по формуле
W(k) = lim ∆tk |
T , |
(П.1.2б) |
T →∞ |
|
|
где ∆tk − время пребывания системы в |
k -ом |
состоянии, T − время |
наблюдения. |
|
|
Следует отметить, что характер приближения к вероятности при увеличении числа испытаний отличается от “стремления к пределу” в математическом смысле слова. При возрастании числа испытаний частота приближается к вероятности, но не с полной достоверностью, а с большой вероятностью, которая при большом числе опытов может рассматриваться
как практическая достоверность. (Строгое определение вероятности см. в соответствующих учебниках).
Если случайная величина (СВ) x имеет непрерывный спектр значений, то вероятность того, что она будет находиться в интервале от x до x +dx равна
dW(x) = f(x)dx , |
(П.1.2в) |
где f(x) − функция статистического распределения (функция распределения).
Ее еще называют плотностью вероятности, так как она имеет смысл вероятности отнесенной к единичному интервалу изменения СВ.
П.1.2. Свойство вероятностей. Из определения (П.2) следует, что
Два события A и B называются несовместимыми (несовместными), если при испытании они не могут произойти одновременно. Суммой или объединением двух событий
C = A B
называется наступление одного из двух событий. Знак означает “или − или”. Вероятность наступления одного из двух несовместимых событий A или B определяется теоремой сложения вероятностей
W(A B) =W(A) +W(B). |
(П.1.4) |
Эта теорема, следующая из (П.1.2), распространяется на случай любого числа несовместных событий, как с дискретным, так и непрерывным спектром значений.
|
k |
|
k +1 |
n |
|
n |
k |
( |
1 |
2 |
) |
|
x2 |
|
W(...x |
x |
) = |
∑ |
= |
∫ |
f(x)dx . (П.1.5) |
|
|
... x |
W(x |
); W x [x |
,x |
] |
|
Вероятность того, что СВ принимает значение, меньшее некоторого заданного числа x , равна
W(xi < x) = Φ(x) = ∑W(xi ).
xi <x
Если СВ имеет непрерывный спектр значений из ограниченного или бесконечного интервала, то
x0
W(x < x0 ) = Φ(x0 ) = ∫ f(x)dx .
− ∞
Совокупность всех событий, которые могут произойти при одном испытании, называется полной системой. Вероятность реализации хотя бы одного события из полной системы есть достоверное событие (условие нормировки):
N |
∫ f(x)dx = 1. |
|
∑W(xk ) = 1; |
(П.1.6) |
k =1
Здесь суммирование (интегрирование) ведется по всем возможным событиям (значениям).
Если полная система состоит из двух событий A и A, A− противоположное событие, заключающееся в том, что событие A не происходит, то этот факт можно представить формулой
A A =U ,
гдеU − достоверное событие. В этом случае
W(A A) =W(U ) = 1; W( A ) = 1 −W(A). |
(П.1.7) |
Два события называются независимыми, если наступление одного из них не влияет на вероятность реализации другого. Сложное событие C , состоящее в одновременной или последовательной реализациях двух независимых A и B , называется пересечением (или произведением) составляющих его событий
C = A ∩B .
Знак ∩ имеет смысл “как − так и”.
Для двух независимых событий выполняется теорема умножения вероятностей
W(A ∩B) =W(A)W(B); dW(x,y) = dW(x) dW(y). (П.1.8)
Эта теорема обобщается на произвольное число независимых событий. Если событие A изменяет условия испытания и тем самым вероятность
наступления события B , то эти события называются взаимозависимыми. Вероятность наступления события B в предположении, что событие A произошло, называется условной вероятностью и обозначается символом
W(BA). Для одновременного или последовательного наступления двух взаимозависимых событий A и B теорема умножения принимает вид
W(A ∩B) =W(A)W(B A) =W(B)W(A B). |
(П.1.9) |
П.1.3. Основные характеристики случайной величины. В качестве важных параметров распределения в теории вероятностей рассматривают среднее значение СВ:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
= ∑xi W(xi ), |
|
|
|
|
|
(П.1.10) |
|
|
|
|
x |
x |
= ∫ x f (x)dx , |
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
ее среднеквадратичное отклонение (флуктуацию) |
|
|
|
|
|
= ∑(xi − |
|
)2W(xi ) , σ = ∫ (x − |
|
)2 |
f(x)dx . |
(П.1.11) |
|
σ = |
(∆x)2 |
|
x |
x |
|
|
|
|
|
i |
|
|
|
|
|
|
и дисперсию −D = σ2 . Последняя характеризует разброс СВ относительно ее среднего значения. Относительной флуктуацией называется величина
|
|
|
δx = (∆x)2 |
x = σ x . |
(П.1.12) |
Наряду со средними значениями СВ используют понятие среднего |
значения функций СВ: |
|
|
|
|
|
|
|
|
= ∫ F(x)f(x)dx . |
|
|
F(xi ) = ∑F(xi ) W(xi ), |
F(x) |
(П.1.13) |
|
|
i |
|
|
|
|
Или с учетом условий нормировки: |
|
|
|
F(xi ) = ∑F(xi ) W(xi ) |
∑W(xi ), F(x) = ∫ F(x)f(x)dx ∫ f(x)dx . (П.1.14) |
i |
i |
|
|
|
Среднее значение суммы СВ равно сумме их средних значений
среднее значение произведения независимых СВ равно произведению их средних значений
∏xi |
= ∏ |
xi |
. |
(П.1.16) |
i=1 |
i=1 |
|
Здесь под xi понимается совокупность произвольных СВ.
П.1.4. Функции распределения. Если в каждом из N независимых испытаниях вероятность наступления события A равна w , то вероятность, что это событие реализуется в точности k раз, не учитывая порядка событий, определяется биномиальным законом распределения (или распределением Бернулли):
W (k) =C k wk (1 −w)N −k = N !wk (1 −w)N −k |
(k !(N −k)!). (П.1.17) |
N |
N |
|
Эта формула обобщается на несколько независимых событий Ai (i = 1,2,...).
Если их вероятности соответственно равныwi(A i ), то вероятность, что в N
испытаниях точно ki раз произойдет событие A i (N = ∑ki ), равна
i
WN (k1,k2,...) = N ! (w1k1 w2k2 w3k3 ...) (k1 ! k2 ! k3 !...) = N !∏(wiki ki !). (П.1.18)
i
Вероятность, что событие A осуществляется в N опытах по крайней мере k
раз, есть сумма N −k +1 первых членов разложения бинома(w +q)N :
N −k |
|
∑CNj wN −j (1 −w)j = wN +CN1 wN −1q +... +CNk wkqN −k , |
(П.1.19) |
j=0 |
|
|
|
|
|
где q = 1 −w − вероятность события A . |
|
Распределение Бернулли удовлетворяет условию нормировки |
|
N |
|
∑WN (k) = 1 . |
(П.1.20) |
k=0
При биномиальном распределении среднее число реализаций случайного события равно произведению числа испытаний и его вероятности при одном испытании
|
|
N |
|
k = ∑kWN (k) = Nw . |
(П.1.21) |
|
|
k =0 |
|
Дисперсия такого случайного события равна произведению трех сомножителей
(∆k)2 = k2 −k2 = Nw(1 −w).
Асимптотическими выражениями распределения Бернулли является нормальное гауссовское и распределение Пуассона, когда при большом числе испытаний (N >> k ) вероятность w события – малая величина (w <<1 ) (закон редких явлений):
W (k) = (Nw)ke−N w |
k !. |
(П.1.22) |
N |
|
|
Оно является математической моделью радиоактивного распада, количества экстремальных ситуаций, дробового эффекта и других “редких событий”. Среднее значение и дисперсия случайного события, распределенного по этому закону, совпадают и равны
k = (∆ k)2 = Nw . |
(П.1.23) |
П.2. СПЕЦИАЛЬНЫЕ ФУНКЦИИ И ИНТЕГРАЛЫ
П.2.1. Гамма−функция. Тождественные интегральное и факториальное представления гамма−функции Γ(z) для всех вещественных или комплексных
значений z имеютвид:
∞ |
|
|
|
|
|
|
Γ(z) = ∫e−x xz−1dx |
для |
Re z > 0 , |
(П.2.1) |
0 |
|
|
|
|
|
|
|
∞ |
|
|
|
|
|
|
Γ(z, β) = ∫e−βxxz−1dx = β−z Γ(z) |
для β > 0 , |
(П.2.2) |
0 |
|
|
|
|
|
|
|
Γ(z) = lim |
|
m ! mz |
|
|
, |
(П.2.3) |
|
|
|
|
|
|
+1) |
... (z +m) |
m→∞ z(z |
|
|
При произвольных значениях аргумента справедливы следующие рекуррентные соотношения
Γ(z +1) = zΓ(z); Γ(z)Γ(1 −z) = −zΓ(z)Γ(−z) = πsin πz . (П.2.4)
Когда z является положительным целым или полуцелым числом, то
Γ(n +1) = n ! ; |
|
|
|
|
2n |
(n !) |
|
; |
(П.2.5а) |
|
Γ(n +1 2) = (2n)! π 2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
Γ(1 2) = |
π ; |
Γ(1 2 −n) = (−1)n 2n (n !) |
π (2n)! . |
(П.2.5б) |
Через гамма-функцию определяется интеграл Пуассона |
|
|
|
∞ |
|
− βy2 |
|
|
−(z +1) 2 |
|
|
|
|
|
|
∫e |
z |
dy = 0.5β |
Γ |
|
|
(П.2.6) |
|
y |
|
(z +1) 2 . |
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
П.2.2. Функции |
|
Гаусса и |
вероятности |
ошибок |
( e r r o r |
f u n c t i o n ) . Функцией Гаусса называют нормированную зависимость вида:
ψ(x) = exp(−x2 |
2δ2 ) |
2πδ2 . |
(П.2.7) |
|
|
|
|
Ее ширина 2δ есть расстояние между точками x = −δ |
и x = δ, где вторая |
производная равна нулю. |
|
|
|