Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Метода термодинамика(лекции)

.pdf
Скачиваний:
38
Добавлен:
23.02.2015
Размер:
2.65 Mб
Скачать
H Ey Ix Hz .

(6.32)

Действие приложенного магнитного поля проявляется в повороте вектора

электрического поля от iEx

до iEx + jEy

на холловский угол ϕ

 

 

 

 

 

tgϕ = Ey

Ex .

 

 

 

(6.35)

В отсутствие градиента температуры ( rT = 0 ) плотность тока (6.29)

примет вид

 

 

 

 

 

 

 

 

 

 

 

 

e2

 

f

3

e2

 

 

 

(ηv) 3

 

 

 

 

0

 

 

 

 

 

 

 

j = −

 

τv E

 

d v

 

τv v H

 

d v = jE

+ jH . (6.36)

m

v

mc

 

 

 

 

 

 

 

v

 

 

 

 

 

 

 

 

 

 

 

 

 

Первое слагаемое отвечает за плотность тока, вычисленная раньше (6.31).

Второй интеграл зависит от производной (vη)v . Для ее определения обратимся к уравнению (6.28) при нулевом градиенте температуры ( rT = 0 )

 

eτ

f

 

 

ηv =

 

0

 

+

 

E

v

 

 

m

 

 

 

 

 

 

 

eτ

 

(vη)

.

(6.37)

 

v H

 

 

 

 

 

 

v

 

 

mc

 

 

 

Его решение ищем методом итераций. Предположим, что магнитное поле мало и главный вклад в ( ηv ) дает первый член, т.е. в первом приближении с учетом f0 v = mv f0 ε

(ηv)

 

eτ

f0

 

 

f0

 

 

=

 

 

E

 

 

=eτ

 

E .

v

m

 

v

ε

 

v

 

 

 

 

 

 

 

 

 

 

 

 

 

Подставляя его в (6.37), получаем

 

eτ f0

 

e2τ2

 

f0

 

 

.

ηv =

 

 

Ev +

 

 

 

E v H

 

 

 

 

 

m v

 

mc

 

ε

 

 

 

 

 

 

 

 

 

После дифференцирования находим второе приближение

(ηv)

 

f0

 

e2τ2

f0

 

.

 

 

=eτ

 

E +

 

 

 

E H

 

 

 

 

 

v

 

ε

 

mc

 

 

 

 

 

ε

 

 

Если ограничиться этим приближением, то

jH = −mce3 τ2v fε0 (v H E)d3v +a(H2 ) ,

(6.38)

(6.39)

272

где через a(H2 ) обозначен интеграл, возникающий за счет второго члена в

правой части (6.38). Так как H = Hz k , E = iEx + jEy , то

τ2v

f0

v H Ed3v =

τ2v

f0

(vyEx vxEy )d3vHz =

 

 

 

ε

 

 

 

 

 

ε

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

1

 

2 3

f

dε

 

 

 

 

 

= −

2m2

2

3

 

(jEx

 

3

τ v

ε

Hz

(jEx iEy )

3h

3 τ

(µ)v

(µ) Hz

iEy ) .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Здесь использована замена d3v = 4πv2dv = 4πvdεm и первое приближение

фермиевского интеграла.

 

Поскольку

v3(µ) = (2µ0 m)3 = 3nh3

8πm3 ,

магнитная составляющая плотности тока (6.39) принимает вид

 

j

 

=

eστ(µ)

(jE

 

iE

)H +a(H2 ).

(6.40)

H

 

 

x

 

 

 

mc

 

 

y

 

z

 

 

 

 

 

 

 

 

 

 

 

 

Суммарную плотность тока найдем, подставляя (6.40) в (6.36)

 

j = σE

eστ(µ)

(iE

 

jE

)H +a(H2 ) .

(6.41)

 

y

 

 

 

 

 

mc

 

 

 

x

z

 

 

 

 

 

 

 

 

 

 

 

 

 

Из (6.41) с учетом того, что jz = jy = 0 , определим следующие выражения для составляющих тока и поля

j

 

=

σE

 

eHz τ(µ)σ

E

 

+a

(H2 ),

(6.42)

x

x

 

 

y

 

 

 

 

 

 

 

mc

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

eH

τ(µ)

 

 

ay (H2 )

 

 

 

E

 

= −

 

z

 

 

E +

 

 

 

.

(6.43)

 

 

y

 

mc

 

σ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Э.д.с. Холла содержит член, линейный по Hz . Иная ситуация для тока. Низшая степень магнитного поля, которая входит в выражение для тока, равна двум. В

этом можно убедиться, если подставить (6.43) для Ey в (6.42). Поскольку было принято предположение, что магнитное поле мало, членами, квадратичными по Hz , можно пренебречь. Тогда из последних формул следует

j

 

= σE

,

E

 

= −

eHz τ(µ)

E .

(6.44)

x

y

 

 

x

 

 

 

mc

 

 

 

 

 

 

 

 

 

Коэффициент Холла определяется выражением

273

 

 

= −

eτ(µ)

 

= −

1

,

(6.45)

H

mcσ

 

 

 

nec

 

 

 

 

 

куда входит только плотность электронов, скорость света (в вакууме) и заряд электрона. Если ток переносится дырками, а не электронами, в (6.45) заменяется e на +e . Следовательно, измеряя коэффициент Холла, можно получить информацию, как о знаке заряда носителей, так и о плотности свободных электронов.

274

ПРИЛОЖЕНИЯ

П. 1. ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

П.1.1. Определения и понятия теории вероятностей ( ТВ) . ТВ изучает количественную характеристику массовых явлений. Испытанием в ТВ принято называть реализацию точно установленных предписаний и условий, которые принципиально могут воспроизводиться неограниченное число раз. Результат испытания называется событием.

Если событие A при N одинаковых испытаниях происходит KN (A)

раз, то величина

 

WN (A) = KN (A) N

(П.1.1)

представляет собой частоту повторения события A в заданной серии испытаний. Если выражение (П.1.1) при N → ∞ стремится к предельному значению

W(A) = lim KN (A) N ,

(П.1.2а)

N →∞

 

то последнее называется вероятностью события. Вероятность некоторого k - го состояния системы может быть определена по формуле

W(k) = lim tk

T ,

(П.1.2б)

T →∞

 

 

где tk время пребывания системы в

k -ом

состоянии, T время

наблюдения.

 

 

Следует отметить, что характер приближения к вероятности при увеличении числа испытаний отличается от “стремления к пределу” в математическом смысле слова. При возрастании числа испытаний частота приближается к вероятности, но не с полной достоверностью, а с большой вероятностью, которая при большом числе опытов может рассматриваться

275

как практическая достоверность. (Строгое определение вероятности см. в соответствующих учебниках).

Если случайная величина (СВ) x имеет непрерывный спектр значений, то вероятность того, что она будет находиться в интервале от x до x +dx равна

dW(x) = f(x)dx ,

(П.1.2в)

где f(x) функция статистического распределения (функция распределения).

Ее еще называют плотностью вероятности, так как она имеет смысл вероятности отнесенной к единичному интервалу изменения СВ.

П.1.2. Свойство вероятностей. Из определения (П.2) следует, что

0 W(A) 1.

(П.1.3)

Два события A и B называются несовместимыми (несовместными), если при испытании они не могут произойти одновременно. Суммой или объединением двух событий

C = A B

называется наступление одного из двух событий. Знак означает “или или”. Вероятность наступления одного из двух несовместимых событий A или B определяется теоремой сложения вероятностей

W(A B) =W(A) +W(B).

(П.1.4)

Эта теорема, следующая из (П.1.2), распространяется на случай любого числа несовместных событий, как с дискретным, так и непрерывным спектром значений.

 

k

 

k +1

n

 

n

k

(

1

2

)

 

x2

 

W(...x

x

) =

=

f(x)dx . (П.1.5)

 

 

... x

W(x

); W x [x

,x

]

 

k=1

x1

 

Вероятность того, что СВ принимает значение, меньшее некоторого заданного числа x , равна

W(xi < x) = Φ(x) = W(xi ).

xi <x

276

Если СВ имеет непрерывный спектр значений из ограниченного или бесконечного интервала, то

x0

W(x < x0 ) = Φ(x0 ) = f(x)dx .

− ∞

Совокупность всех событий, которые могут произойти при одном испытании, называется полной системой. Вероятность реализации хотя бы одного события из полной системы есть достоверное событие (условие нормировки):

N

f(x)dx = 1.

 

W(xk ) = 1;

(П.1.6)

k =1

Здесь суммирование (интегрирование) ведется по всем возможным событиям (значениям).

Если полная система состоит из двух событий A и A, Aпротивоположное событие, заключающееся в том, что событие A не происходит, то этот факт можно представить формулой

A A =U ,

гдеU достоверное событие. В этом случае

W(A A) =W(U ) = 1; W( A ) = 1 W(A).

(П.1.7)

Два события называются независимыми, если наступление одного из них не влияет на вероятность реализации другого. Сложное событие C , состоящее в одновременной или последовательной реализациях двух независимых A и B , называется пересечением (или произведением) составляющих его событий

C = A B .

Знак имеет смысл “как так и”.

Для двух независимых событий выполняется теорема умножения вероятностей

W(A B) =W(A)W(B); dW(x,y) = dW(x) dW(y). (П.1.8)

277

Эта теорема обобщается на произвольное число независимых событий. Если событие A изменяет условия испытания и тем самым вероятность

наступления события B , то эти события называются взаимозависимыми. Вероятность наступления события B в предположении, что событие A произошло, называется условной вероятностью и обозначается символом

W(BA). Для одновременного или последовательного наступления двух взаимозависимых событий A и B теорема умножения принимает вид

W(A B) =W(A)W(B A) =W(B)W(A B).

(П.1.9)

П.1.3. Основные характеристики случайной величины. В качестве важных параметров распределения в теории вероятностей рассматривают среднее значение СВ:

 

 

 

 

= xi W(xi ),

 

 

 

 

 

(П.1.10)

 

 

 

x

x

= x f (x)dx ,

 

 

 

 

 

i

 

 

 

 

 

 

ее среднеквадратичное отклонение (флуктуацию)

 

 

 

 

= (xi

 

)2W(xi ) , σ = (x

 

)2

f(x)dx .

(П.1.11)

σ =

(x)2

x

x

 

 

 

 

i

 

 

 

 

 

 

и дисперсию D = σ2 . Последняя характеризует разброс СВ относительно ее среднего значения. Относительной флуктуацией называется величина

 

 

 

δx = (x)2

x = σ x .

(П.1.12)

Наряду со средними значениями СВ используют понятие среднего

значения функций СВ:

 

 

 

 

 

 

 

 

= F(x)f(x)dx .

 

 

F(xi ) = F(xi ) W(xi ),

F(x)

(П.1.13)

 

 

i

 

 

 

 

Или с учетом условий нормировки:

 

 

 

F(xi ) = F(xi ) W(xi )

W(xi ), F(x) = F(x)f(x)dx f(x)dx . (П.1.14)

i

i

 

 

 

Среднее значение суммы СВ равно сумме их средних значений

278

 

=

 

,

 

xi

xi

(П.1.15)

среднее значение произведения независимых СВ равно произведению их средних значений

xi

=

xi

.

(П.1.16)

i=1

i=1

 

Здесь под xi понимается совокупность произвольных СВ.

П.1.4. Функции распределения. Если в каждом из N независимых испытаниях вероятность наступления события A равна w , то вероятность, что это событие реализуется в точности k раз, не учитывая порядка событий, определяется биномиальным законом распределения (или распределением Бернулли):

W (k) =C k wk (1 w)N k = N !wk (1 w)N k

(k !(N k)!). (П.1.17)

N

N

 

Эта формула обобщается на несколько независимых событий Ai (i = 1,2,...).

Если их вероятности соответственно равныwi(A i ), то вероятность, что в N

испытаниях точно ki раз произойдет событие A i (N = ki ), равна

i

WN (k1,k2,...) = N ! (w1k1 w2k2 w3k3 ...) (k1 ! k2 ! k3 !...) = N !(wiki ki !). (П.1.18)

i

Вероятность, что событие A осуществляется в N опытах по крайней мере k

раз, есть сумма N k +1 первых членов разложения бинома(w +q)N :

N k

 

CNj wN j (1 w)j = wN +CN1 wN 1q +... +CNk wkqN k ,

(П.1.19)

j=0

 

 

 

 

 

где q = 1 w вероятность события A .

 

Распределение Бернулли удовлетворяет условию нормировки

 

N

 

WN (k) = 1 .

(П.1.20)

k=0

279

При биномиальном распределении среднее число реализаций случайного события равно произведению числа испытаний и его вероятности при одном испытании

 

 

N

 

k = kWN (k) = Nw .

(П.1.21)

 

 

k =0

 

Дисперсия такого случайного события равна произведению трех сомножителей

(k)2 = k2 k2 = Nw(1 w).

Асимптотическими выражениями распределения Бернулли является нормальное гауссовское и распределение Пуассона, когда при большом числе испытаний (N >> k ) вероятность w события – малая величина (w <<1 ) (закон редких явлений):

W (k) = (Nw)keN w

k !.

(П.1.22)

N

 

 

Оно является математической моделью радиоактивного распада, количества экстремальных ситуаций, дробового эффекта и других “редких событий”. Среднее значение и дисперсия случайного события, распределенного по этому закону, совпадают и равны

k = (k)2 = Nw .

(П.1.23)

280

П.2. СПЕЦИАЛЬНЫЕ ФУНКЦИИ И ИНТЕГРАЛЫ

П.2.1. Гаммафункция. Тождественные интегральное и факториальное представления гаммафункции Γ(z) для всех вещественных или комплексных

значений z имеютвид:

 

 

 

 

 

 

Γ(z) = ex xz1dx

для

Re z > 0 ,

(П.2.1)

0

 

 

 

 

 

 

 

 

 

 

 

 

 

Γ(z, β) = eβxxz1dx = βz Γ(z)

для β > 0 ,

(П.2.2)

0

 

 

 

 

 

 

 

Γ(z) = lim

 

m ! mz

 

 

,

(П.2.3)

 

 

 

 

 

 

+1)

... (z +m)

m→∞ z(z

 

 

При произвольных значениях аргумента справедливы следующие рекуррентные соотношения

Γ(z +1) = zΓ(z); Γ(z)Γ(1 z) = −zΓ(z)Γ(z) = πsin πz . (П.2.4)

Когда z является положительным целым или полуцелым числом, то

Γ(n +1) = n ! ;

 

 

 

 

2n

(n !)

 

;

(П.2.5а)

 

Γ(n +1 2) = (2n)! π 2

 

 

 

 

 

 

 

 

 

 

 

 

 

Γ(1 2) =

π ;

Γ(1 2 n) = (1)n 2n (n !)

π (2n)! .

(П.2.5б)

Через гамма-функцию определяется интеграл Пуассона

 

 

 

 

βy2

 

 

(z +1) 2

 

 

 

 

 

 

e

z

dy = 0.5β

Γ

 

 

(П.2.6)

 

y

 

(z +1) 2 .

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

П.2.2. Функции

 

Гаусса и

вероятности

ошибок

( e r r o r

f u n c t i o n ) . Функцией Гаусса называют нормированную зависимость вида:

ψ(x) = exp(x2

2δ2 )

2πδ2 .

(П.2.7)

 

 

 

 

Ее ширина 2δ есть расстояние между точками x = −δ

и x = δ, где вторая

производная равна нулю.

 

 

 

281