Теория случайных процессов: Учебно-методическое пособие

МИНИСТЕРСТВО НАУКИ И ВЫСШЕГО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ
УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ
СЕВЕРО-КАВКАЗСКАЯ ГОСУДАРСТВЕННАЯ
ГУМАНИТАРНО-ТЕХНОЛОГИЧЕСКАЯ АКАДЕМИЯ
Р.И. Селимсултанова
ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ
Учебно-методическое пособие для выполнения
контрольных работ для обучающихся по направлению подготовки
01.03.04 «Прикладная математика»
Черкесск
2018
1
УДК 519.21
ББК 22.171
С29
Рассмотрено на заседании кафедры «Математика».
Протокол №2 от «21» 09. 2018 г.
Рекомендовано к изданию редакционно-издательским
СевКавГГТА.
Протокол №15 от «30» 10. 2018 г.
советом
Рецензенты: Хубиева Р.Х. – д.ф-м.н., доцент
Коркмазова З.О.- д.ф-м.н., доцент
С29
Селимсултанова, Р.И. Теория случайных процессов: учебнометодическое пособие для выполнения контрольных работ для обучающихся
По направлению подготовки 01.03.04 «Прикладная математика» /
Р.И.Селимсултанова. – Черкесск: БИЦ СевКавГГТА, 2018. – 52 с.
Учебно-методические пособие предназначено для оказания помощи
обучающимся при выполнении практических заданий курса «Теория
случайных процессов». Предложены в большом количестве разнообразные
задачи с разобранными решениями, а также задачи для самостоятельной
работы по каждой теме. Приведены необходимые сведения из теории
случайных процессов. Методическое пособие составлено так, чтобы студент
смог выполнить задания, не обращаясь к дополнительной литературе.
УДК 519.21
ББК 22.171
© Селимсултанова Р.И., 2018
© ФГБОУ ВПО СевКавГГТА, 2018
2
Содержание
Введение........................................................................................................................................5
1.1. Случайная величина. Закон распределения случайной величины....................................6
1.2. Функция распределения. Плотность распределения..........................................................9
1.3. Числовые характеристики функций случайных величин.................................................12
1.4. Теорема сложения и умножения математических ожиданий..........................................15
1.5. Нормальный закон распределения......................................................................................20
Глава 2.
2.1. Стационарные случайные процессы...................................................................................24
2.2. Марковские процессы с дискретным множеством состояний. Цепи Маркова..............25
2.3. Марковские процессы с непрерывным временем и дискретным множеством
состояний..........................................................................................................................................
.......33
2.4. Полумарковские процессы..................................................................................................35
Контрольные задачи для самостоятельного решения обучающимися по 1 главе................40
Контрольные задачи для самостоятельного решения обучающимися по 2 главе................44
Указания по выбору номера варианта………………………………………………………...49
Приложение1……………………………………………………………………………………50
Список литературы......................................................................................................................51
3
Введение
При изучении ряда явлений часто приходится иметь дело со
случайными величинами, изменяющимися в процессе наблюдения (опыта,
испытания) с течением времени. Примерами таких случайных величин могут
служить: сигнал на выходе радиоприемника под воздействием помех,
загруженность студентов в семестре, колебания напряжения в сети, рейтинг
политической партии. Такие случайные величины, изменяющиеся в процессе
опыта, называют случайными функциями.
Раздел математики, изучающий случайные явления в динамике их
развития называется теорией случайных функций (случайных процессов). Ее
методы используются, в частности, в теории автоматического управления,
при анализе и планировании финансовой деятельности предприятий, при
обработке и передаче сигналов радиотехнических устройств, в экономике в
теории массового обслуживания.
4
1.1. Случайная величина. Закон распределения.
С каждым случайным экспериментом связано множество его
возможных
исходов
Это
множество
обычно
  1 , 2 ,..., n ,...
называют пространством элементарных исходов или элементарных
событий. Экспериментатор обычно не просто наблюдает, а измеряет, и в
результате эксперимента получается число. Тем самым каждому исходу
эксперимента ставится в соответствие определенное число  ( ) , а это
означает, что на множестве исходов эксперимента определена некоторая
числовая функция.
Определение. Случайной величиной называется функция
   () определенная на множестве элементарных исходов эксперимента и
принимающая действительные или комплексные значения. Если множество
исходов эксперимента конечно, то приведенное определение является
точным. В общем случае функция  ( ) полагается измеримой.
Случайная величина считается заданной, если указано, какие значения она
может принимать и каковы вероятности этих значений.
Закон распределения является исчерпывающей характеристикой
случайной величины. Если он задан, то с вероятностной точки зрения
случайная величина описана полностью. Поэтому часто говорят о том или
ином законе распределения, имея в виду случайную величину, которая
распределена по этому закону.
Случайные величины будем обозначать большими латинскими буквами
Х , , , , Y Z,
а отдельные возможные значения этих величин
соответствующими малыми буквами х у , , , z .
Определение. Случайную величину называют дискретной, если она может
принимать отделенные друг от друга значения с определенными
вероятностями. Множество возможных значений дискретной случайной
величины конечно или счетно, т.е. их можно занумеровать с помощью ряда
натуральных чисел. Дискретной (прерывной) случайной величиной
называется случайная
Определение. Случайная величина называется непрерывной, если ее
возможные значения составляет некоторый интервал (конечный или
бесконечный).
Законом распределения случайной величины называется всякое
соотношение, устанавливающее связь между возможными значениями
случайной величины и соответствующими им вероятностями. Закон
распределения может иметь разные формы.
В частности закон распределения системы двух дискретных случайных
величин может быть задан с помощью таблицы
5
Таблица 1
Y
Y1
Y2
...
Yn
X1
P11
P12
...
P1n
X2
P21
P22
...
P2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Xm
Pm1
Pm2
...
Pmn
X
где x1<x2<...<xm; y1<y2<...<yn, pij -вероятность события заключающегося в
одновременном выполнении равенств X=xi, Y=yj.
m
При этом
n
 p  1 . Таблица может содержать бесконечное
i 1 j 1
ij
множество строк и столбцов.
Зная закон распределения двумерной дискретной случайной величины,
можно найти законы распределения каждой из компонент (обратное, вообще
говоря неверно). Так p x1  P{X  x1}  p11  p12  ...  p1m
Аналогично можно найти
m
n
j 1
i 1
p xi  P{ X  xi }   pij , p y  P{Y  y j }   pij
Ряд распределения.
Рядом распределения дискретной случайной величины X называется
таблица, где перечислены возможные (различные) значения этой случайной
величины x1 , x2 ,... xn с соответствующими им вероятностями p1 , p2 ,..., pn
Таблица 2
xi
x1
pi
p1
x2
p2
...
xn
...
pn
6
где pi  ( X  xi );
n
 p 1
i 1
i
Закон распределения системы непрерывных случайных величин (X,Y) будем
задавать с помощью функции плотности вероятности f(x,y).
Вероятность попадания случайной точки (X,Y) в область D определяется
равенством
P[( X , Y )  D ]   f ( x, y )dxdy
D
Пример. В урне 4 шара: 2 белых, 1 черный, 1 синий. Из нее на удачу
извлекают два шара. Пусть с.в X - число черных шаров в выборке, случайная
величина Y- число синих шаров в выборке. Составить закон распределения
для системы (X,Y). Найти законы распределения X и Y.
Р е ш е н и е: Случайная величина X может принимать значение 0,1;
случайная величина Y значения 0,1. Вычислим соответствующие
вероятности:
p11  P{ X  0, Y  0} 
C22 1
C21 2

,
p

P
{
X

0
,
Y

1
}

 ,
12
C42 6
C42 6
p21  P{ X  1, Y  0} 
2
1
, p22  P{ X  1, Y  1}  .
6
6
Таблица распределения (X,Y) имеет вид
Таблица 3
X\Y
0
1
0
1\6
2\6
1
2\6
1\6
Отсюда следует:
P{ X  0} 
X
0
1 2 1
2 1 1
1 2 1
2 1 1
  , P{ X  1}    , P{Y  0}    , P{Y  1}    .
6 6 2
6 6 2
6 6 2
6 6 2
1
7
p
1\2
1\2
Законы распределения составляющих X и Y имеют вид
Y
p
0
1
1\2
1\2
1.2. Функция распределения. Плотность распределения
Функцией распределения случайной величины X называется функция F
(х), выражающая вероятность того, что X примет значение, меньшее чем х:
F(x) = P(X <х).
Для дискретных случайных величин функция распределения есть
разрывная ступенчатая функция, непрерывная слева. Если функция
распределения F (х) везде непрерывна и имеет производную, случайная
величина называется непрерывной в узком смысле слова или просто
непрерывной.
Если функция распределения F (х) на некоторых участках непрерывна,
а в отдельных точках имеет разрывы, случайная величина называется
смешанной.
Плотностью распределения непрерывной (в узком смысле слова)
случайной величины называется функция f(x) = F'(x).
Плотность распределения любой случайной величины неотрицательна,
f(x) > 0, и обладает свойством

 f ( x)dx  1

График плотности f(x) называется кривой распределения. Элементом
вероятности для случайной величины X называется величина f(x) dx,
приближенно выражающая вероятность попадания случайной точки X в
элементарный отрезок dx, примыкающий к точке х. Функция распределения
F (х) выражается через плотность распределения формулой

F ( x)    f ( x)dx

Вероятность попадания случайной величины X на участок от  до 
(включая  ) выражается формулой P(  X   )  F ( )  F ( ) .
8
Если случайная величина х непрерывна, то Р(Х =  ) = 0 и
P(  X   )  F ( )  F ( )
Вероятность попадания на участок от  до 
для непрерывной
случайной величины выражается формулой

P(  X   )   f ( x)dx

Математическим ожиданием случайной величины X называется ее
среднее значение, вычисляемое по формулам:
n
M X    xi pi — для дискретной случайной величины;
i 1

M X    x f ( x)dx — для непрерывной случайной величины.

Для смешанной случайной величины математическое ожидание
выражается суммой двух слагаемых:
n
M X    xi pi   x F ( x)dx
i 1
(H )
где сумма распространяется на все точки разрыва функции
распределения, а интеграл — на все участки ее непрерывности.
В некоторых случаях М[Х] будем обозначать строчной буквой с
индексом
M X   m x
Центрированной случайной величиной называется разность между
случайной величиной Х и ее математическим ожиданием:
X  X  m x
Дисперсией случайной величины X называется математическое
ожидание квадрата соответствующей центрированной случайной величины:
 
DX   M X 2
Дисперсия вычисляется по формулам:
n
DX    ( xi  m x ) 2 pi - для дискретной случайной величины;
i 1

DX    ( x  mx )2 f ( x )dx - для непрерывной случайной величины;

DX    ( xi  mx ) 2 pi   ( x  mx ) 2 F ( x )dx -для смешанной случайной
i
H
величины.
Дисперсия D [X] кратко обозначается Dx.
9
Средним квадратическим отклонением случайной величины X
называется корень квадратный из дисперсии
 x  Dx
Начальным моментом k-то порядка случайной величины X называется
математическое ожидание k-й степени этой случайной величины:
 x  X  M X k
 
Важную роль в теории систем случайных величин играет так
называемый корреляционный момент(ковариация)
Корреляционным моментом или ковариацией двух случайных величин
X и Y называется математическое ожидание произведения отклонений этих
случайных величин от их математического ожидания и обозначается через
Kxy или cov(X,Y). Таким образом, по определению
Kxy=M[(X-mx)(Y-my)]
Для дискретных случайных величин корреляционный момент
находится по формуле
K xy    ( xn  mx )( ym  m y ) pnm ,
m
n
а для непрерывных - по формуле
 
K xy    ( x  mx )( y  m y ) f ( x, y )dxdy .
  
корреляционный момент можно также найти по формуле
K xy  M ( XY )  M ( X ) M (Y )
Здесь M ( XY )    xn ym pnm , для дискретных случайных величин X и Y
m
n
 
M ( XY )    x y f ( x, y )dxdy для непрерывных величин.

Случайные величины X и Y называются независимыми, если
вероятность одной из них принять значение, лежащее в любом промежутке
области ее значений, не зависит от того, какое значение приняла другая
величина.
В этом случае
M(XY)=M(X)  M(Y), Kxy=0
Для характеристики связи между величинами X и Y рассматривается
так называемый коэффициент корреляции
10
rxy 
K xy
 x y .
Свойства коэффициента корреляции.
1. Коэффициент корреляции по абсолютной величине не
превосходит 1, то есть
rxy  1 или  1  rxy  1
2. Если X и Y независимы, то rxy  1
3. Если же случайные величины X и Y связаны точной линейной
зависимостью Y=aX+b,
rxy  1 при этом rxy=1 при a>0 и rxy= -1 при a<0.
4. Если rxy  1 , то случайные величины X и Y связаны линейной
функциональной зависимостью.
1.3. Числовые характеристики функций случайных величин
Если X — дискретная случайная величина с рядом распределения,
xi
x1
pi
p1
x2
p2
...
xn
...
pn
а величина Yсвязана с X функциональной зависимостью Y   (x) , то
математическое ожидание величины Y равно
n
m y  M  ( X )   ( xi ) pi ,
i 1
а дисперсия выражается любой из двух формул
n
n
D y  D ( X )   [ ( xi )  m y ] pi   [ ( xi )]2 pi  m 2y
2
i 1
i 1
Если X — непрерывная случайная величина с плотностью
распределения f(x) а Y   (x) , то математическое ожидание величины Y равно

m y  M  ( X )    ( x ) f ( x )dx

а дисперсия выражается любой из двух формул
11
2


D y  D ( X )   [ ( x )  m y ] f ( x )dx   [ ( x )]2 f ( x )dx  m 2y


Если (X, Y) — система непрерывных случайных величин с плотностью
f(x,y), a Z   ( X , Y ) то математическое ожидание величины Z равно

mz  M  ( X , Y )     ( x, y ) f ( x, y )dxdy

а дисперсия выражается любой из двух формул

Dz  D ( X ,Y )    [ ( x, y )  mz2 ] f ( x, y )dxdy 


   [ ( x, y )]2 f ( x, y )dxdy  mz2

Если с — не случайная величина, то М[с]=с; D[c] = 0.
Если с — не случайная величина, а X — случайная, то М = [сХ] = сМ[Х];
D[cX] = c2 D[X].
Пример1.
Дискретная случайная величина X имеет ряд распределения
xi
-1
0
1
2
pi
0,2
0,1
0,3
0,4
Найти математическое ожидание и дисперсию случайной величины Y=2x.
Р е ш е н и е:
Математическое ожидание находим используя формулу:
n
m y  M  ( X )   ( xi ) pi
i 1
my = 2-1  0,2 + 20  0,1 + 21  0,3 + 22  0,4 = 2,4.
D y   2 Y   m 2y =(2-1)2  0,2 + (20)2  0,1 +(21)2  0,3 + (22 )2  0,4 - 2,42 = 1,99.
Пример2:
Непрерывная случайная величина Х распределена в интервале (0, 1) по
закону с плотностью
2 x при x  (0,1)
f ( x)  
0 при x  (0,1)
12
Найти математическое ожидание и дисперсию квадрата случайной величины
Y = X2.
Р е ш е н и е:
1
1
1
2
m y   2 [ X ]   x 2 xdx  2  x 3dx  .
2
0
0
2
1
1 1 1
1
D y   2 Y   m   ( x ) 2 xdx      
.
3 4 12
2
0
Пример 3:
Непрерывная случайная величина X распределена по показательному закону:
e  x при x  0
f ( x)  
0 при x  0,   0
Найти математическое ожидание и дисперсию случайной величины Y = еX.
Р е ш е н и е:
2
y
2 2

m y   e e
x
 x

dx    e  (  1) x dx
0
0
при   1  0 , то есть   1 , этот интеграл существует и равен m y 

 1
, при
  1 он расходится.

 2[Y ]   e e
2x
 x

dx    e (  2 ) x dx
0
0
При   2 этот интеграл существует и равен  2[Y ] 

 2
, а дисперсия
равна


  
Dy 

;
 
  2    1
(  2)(   1) 2
2
при   2 интеграл расходится и дисперсия D y не существует.
Пример 4:
Непрерывная случайная величина X распределена по закону:
1
  
 2 cos x при x    2 ; 2 



f ( x)  
.
  
0
при x    ; 

 2 2
13
Найти математическое ожидание и дисперсию случайной величины Y = sinX.
Р е ш е н и е:

my 

2
1
1 2
1
sin
x
cos
x
d
x

0
D y   2 [Y ]   sin 2 x cos x dx 

2 
2 
3


2
2
Пример 5:
Случайная величина X распределена закону:
1
  
 2 cos x при x    2 ; 2 



f ( x)  
  
0
при x    ; 

 2 2
Найти математическое ожидание и дисперсию случайной величины Y=|sinX|.
Решение


2
2
1
1
m y   sin x cos x d x   sin x cos x d x 
2 
2
0

2

 2 [Y ] 

2
2
1 1 1
1
1
2
sin
x
cos
x
dx

(sin x ) 2 cos xdx  D y   2 [Y ]  m 2y   
.


2 
3
3 4 12
0

2
1.4. Теорема сложения математических ожиданий
Математическое ожидание суммы случайных величин равно сумме их
математических ожиданий:
М[Х + Y] = М[Х]+М[Y];
и вообще
n
 n
M  X i    M [ X i ]
 i 1  i 1
Математическое ожидание линейной функции нескольких случайных
величин
n
Y  M   ai X i  b
i 1
где ai и b — не случайные коэффициенты, равно той же линейной функции
от их математических ожиданий:
14
n
 n
m y  M  ai X i  b   ai mxi  b , где mxi =M[Xi]
 i 1
 i 1
Короче это правило можно записать так:
М [L(X1 ,X2 ,…,Xn )]=L(mx1,mx2,…,mxn),
где L — линейная функция.
Математическое ожидание произведения двух случайных величин X,
Y выражается формулой
M[XY] = M[X]M[Y] + Kxy,
где Kxy — корреляционный момент величин X, Y. Эту формулу в другом
виде можно записать так:
Kxy=M[X,Y]-mxmy .
Теорема умножения математических ожиданий.
Математическое ожидание произведения двух некоррелированных
случайных величин Х,Y равно произведению их математических ожиданий
M[Х,Y] = М[Х] М[Y].
Если Х1, Х2, ..., Хn — независимые случайные величины, то
математическое ожидание их произведения равно произведению
математических ожиданий
n
 n

M  X i    M [ X i ]
 i 1  i 1
Дисперсия суммы двух случайных величин выражается формулой
D[X + Y] = D[X] + D[Y] + 2Kxy.
Теорема сложения дисперсий
Дисперсия суммы двух некоррелированных случайных величин X, Y
равна сумме их дисперсий
15
D[X + Y] = D[X] + D[Y],
и вообще, для некоррелированных случайных величин Х1, Х2, …, Хn
n
 n
D  X i    D[ X i ]
 i 1  i 1
Дисперсия линейной функции нескольких случайных величин
n
Y   ai X i  b
i 1
где ai и b — не случайные величины, выражаются формулой
n
 n 2
D y  D  ai X i  b   ai D[ X i ]  2 ai a j K xi x j
i j
 i 1
 i 1
В случае, когда величины Х1, Х2, ..., Хn не коррелированы,
n
 n 2
Dy  D  ai X i  b   ai D[ X i ] .
 i 1
 i 1
При сложении некоррелированных случайных векторов их
корреляционные моменты складываются, то есть если
X = Х1+ Х2;
Y = Y1 + Y2,
Kx1x2 = Kx1y2 = Кy1y2 = Кy1x2 = 0,
то
Kxy=Kx1y1+Kx2y2
Функция  ( X 1 , X 2 ,..., X n ) нескольких случайных аргументов Х1, Х2,..,
Хn называется «почти линейной», если во всем диапазоне практически
возможных значений аргументов она может быть с достаточной для
практики точностью линеаризована (приближенно заменена линейной). Это
означает, что
n
  
 ( X 1 , X 2 ,..., X n )   (mx1 , mx 2 ,..., mxn )     ( X i  mxi ) ,
i 1  xi  m
16
  
 (mx1 , mx 2 ,..., mxn )

 
частная производная функции
xi
 xi  m
 ( x1 , x2 ,..., xn ) по аргументу xi в которую вместо каждого аргумента
подставлено
его
математическое
ожидание.
Математическое
ожидание
почти
линейной
функции
Y   ( x1 , x2 ,..., xn ) приближенно вычисляется по формуле
m y   (mx1 , mx 2 ,..., mxn ) .
Где
Дисперсия почти линейной функции приближенно вычисляется по
формуле
2
n
  
     
 K xixj ,
 Dxi  2 
 
D y   



x

x

x
i 1 
i j 
i m
i m 
j m
где Dxi — дисперсия случайной величины Хi, Кxixj — корреляционный момент
величин Xi , Xj.
В случае, когда случайные аргументы Х1, Х2,..., Хn не коррелированы,
2
  
 Dxi .
D y   
i 1  xi  m
n
Пример1:
Случайная точка (X, Y) распределена равномерно внутри круга K радиуса
r=1 . Найти математическое ожидание и дисперсию случайной величины
Z=XY.
Решение:
1

f ( x, y )   
0
при ( x, y )  K
при ( x, y )  K
17
Mz 
1
1
1
xydxdy   xydxdy   xydxdy 0 ,
 


(K )
( K 1)
( K 2)
где K1 правая половина круга K, а K2 левая половина.
Функция xy нечетна относительно аргумента х, поэтому интегралы по K1 и K2
отличаются только знаком в сумме интегралы взаимно уничтожаются.
Dz 
1
1
2
1
1
x y dxdy   d  r cos x  dr 
 

24
2
2
(K )
5
0
2
0
Пример2:
Случайная точка (X, У) распределена равномерно внутри квадрата R . Найти
математическое ожидание и дисперсию случайной величины Z= XY.
Решение:
Так как случайные величины X, Y независимы, то
1 1 1
 
2 2 4
Dz   2 [ z ]  mz2  M [( XY ) 2 ]  mz2  M [ X 2 ]M [Y 2 ]  mz2
mz  mx m y 
M [ X 2 ]  2[ X ] 
1
3
M [Y 2 ] 
1
7
Dz 
3
144
Пример3: Система случайных величин
распределения с плотностью
при ( x, y )  D
a sin( x  y )
f ( x, y )  
при ( x, y )  D
0
Область D определяется неравенствами 0  x 
(X,Y)

2
, 0 y
подчинена

2
закону
. Найти
коэффициент a, математические ожидания mx, my, средние квадратичные
отклонения  x ,  y .
Решение:
 
2 2
Коэффициент a находим из уравнения   sin( x  y )dxdy  1 , отсюда
0 0
18
 
2 2

2
0 0
0
a   sin( x  y )dxdy  a  cos( x  y )

2
0

2

dx  a  (sin x  cos x )dx  a (sin x  cos x ) 02  2a
0
1
1
то есть f ( x, y )  sin( x, y ) в область D.
2
2
Итак a 
 

2 2
2

2
1
1
m x    x sin( x  y )dydx   xdx  sin( x  y )dy 
200
20
0



1
12

2 xdx  
cos(
x

y
)
[cos(
x

)  cos x ] xdx 
0
2 0
2 0
2

2



1
12
2 
x
(sin
x

cos
x
)
dx

x
(sin
x

cos
x
)
(sin x  cos x )dx 
1
0
2
2 0
2 0

 1

  (cos x  sin x ) 02 
4 2
4
2
Точно так же и m y 

4
 
 x2  M ( X 2 )  [ M ( X )]2 


1

12 2
2
2
2 dx 
x
sin(
x

y
)
dydx



x
cos(
x

y
)

0
2 0 0
16
2 0
16
2
2 2


2
2

x (sin x  cos x )dx 

12 2
2 1 2
2 
x
(sin
x

cos
x
)
dx


x
(sin
x

cos
x
)
16


0
20
16 2
0




2
8
2
16
 x (sin x  cos x )

2
0
2
  (sin x  cos x )dx 
0


2
2
16

2
8


2
 (sin x  cos x )

2
0

2
16

2
( 2  8  32 )
Следовательно,      x y 
16
2
x
2
y
1.5. Нормальный закон распределения
Нормальный закон распределения имеет плотность вероятности
 ( x  m) 2 
1
f ( x) 
exp
 , где    m  ,   0  некоторые параметры
2
2 
 2 
19
График функции плотности вероятности имеет максимум в точке х=m,
а точки перегиба отстоят от точки m на расстояние  .
При x   функция асимптотически приближается к нулю (ее график
изображен на рисунке).
Рисунок 1
Помимо геометрического смысла, параметры нормального закона
распределения имеют и вероятностный смысл. Параметр m равен
математическому ожиданию нормально распределенной случайной
2
величины, а дисперсия D (X) = 
Если
X  N (m;  2 ) т.е. X имеет нормальный закон распределения с
2
параметрами m и  , то
bm
am
P ( a  X  b)   
  
 , где
  
  
( x ) 
x
 t2 
1
exp dt  функция Лапласа
2  0
 2
Значения функции (x) можно найти по таблице (см. прил., табл.
П2). Функция Лапласа нечетна, т.е. ( x)  ( x) Поэтому ее таблица
дана только для неотрицательных х. График функции Лапласа изображен
на рисунке 2. При значениях х > 5 она практически остается постоянной.
Поэтому в таблице даны значения функции только для 0  x  5 При
значениях х > 5 можно считать, что (x) = 0,5.
20
Рисунок 2
 

 
то P ( X  m   )  2 
Если X  N (m; 2 ) ,
Пример 1.
Случайная
величина X
имеет нормальный
закон
распределения X  N (m;  ) . Известно, что P( X < 1) 0,15866, а P (X>4) =
2
0,30854. Найти значения параметров m и  .
Решение.
2
Воспользуемся формулой
1 m 
m
1 m 
P( X  1)  P(   X  1)   
  
  
   ( )  0,15866
  
 

  
По таблице функции Лапласа (см. прил., табл. П2) находим, что
m 1
 (1)=0,34134. Поэтому

1
или m  1   .
m
4m
  
  0,30854
  
  
Аналогично P( X  4)  P(4  X  )   
4m
  0,5  0,30854  0,19146 .
  
Так как ()  0,5 то  
По таблице функции Лапласа (см. прил., табл. П2) находим, что
1
 ( )  0,19146 .
2
4m
Поэтому 
  0,5 или m  4  0,5 . Из системы двух уравнений
  
m  1   и m  4  0,5 находим что m  3,   2, то есть  2  4
Итак, случайная величина X имеет нормальный закон распределения
N(3;4).
21
Рисунок 3
График функции плотности вероятности этого закона распределения
изображен на рисунке.
Задача 2
Жетон для игрального автомата стоит 10 рублей. При использовании
одного жетона (в отдельной игре) вероятность не получить ничего равна 0,8,
вероятность получить 20 рублей равна 0,15, вероятность получения 50
рублей равна 0,04 и вероятность получения 100 рублей равна 0,01. Игрок
купил жетонов на 1000 рублей. Какова вероятность того, что игрок не
окажется в проигрыше?
Р е ш е н и е: Игрок купил 1000 :10= 100 жетонов. Результат каждой
игры (использование одного жетона) является случайной величиной Xi с
законом распределения
Таблица 4
Xi
-10
10
40
90
P
0,8
0,15
0,04
0,01
Выигрыш
указан
с
учетом
стоимости
жетона.
Результат 100 игр обозначим через Y =X1+ X1+... +X100 . Величина Y является
суммой большого числа одинаково распределенных независимых случайных
величин, каждая из которых ограничена. По центральной предельной
теореме Y имеет закон распределения близкий к нормальному закону
распределения. Найдем параметры этого закона, т.е. математическое
ожидание и дисперсию величины Y. Так как случайные величины Xi
независимы, то
M(Y)=M(X1)+M(X2)+...+M(X100) и D(Y)=D(X1)+D(X2)+...+D(X100)
так как M(Xi)=-10  0,8+10  0,15+40  0,04+90  0,01=-2
D(Xi)=(-10+2)2  0,8+(10+2)2  0,15+(40+2)2  0,04+(90+2)  0,01=228
22
то
2
M(Y)=-2  100=-200, D(Y)=  (Y)=228  100=22800,  (Y )  151
Итак, Y имеет примерно нормальный закон распределения N( 200; 22800).
Игрок не окажется в проигрыше, если Y  0 . По формуле
bm
am
P ( a  X  b)   
  
,
  
  
( x ) 
x
 t2 
1
exp
 dt  функция Лапласа
2  0
 2
имеем
 900  ( 200 ) 
 0  ( 200 ) 
P(Y  0)  P(0  Y  900 )   
  
   ( 4,64 )   (1,32 )  0,09
151
151




23
Глава 2.
2.1. Стационарные случайные процессы
Случайный процесс называется стационарным, если все его
характеристики не зависят от времени.
Определение. Случайная функция X (t) называется строго
стационарной (стационарной в узком смысле), если все ее конечномерные
законы распределения не изменяются от сдвига параметра (времени) на
произвольную величину t0. Это в частности означает, что ее математическое
ожидание и дисперсия постоянны, а корреляционная функции зависит только
от разности аргументов.
Определение. Случайная функция X (t) называется стационарной в
широком смысле, если ее математическое ожидание постоянно, а
корреляционная функции зависит только от разности аргументов т.е.
mx (t )  const, K x (t1 , t2 )  K x (t1 , t1   )  k x ( ) где  t2  t1 (1)
Пример. Дан случайный процесс X (t )  cos(t   ) , где  - случайная
величина, равномерно распределенная в отрезке [0, 2 ] . Требуется
доказать, что этот случайный процесс стационарен в широком смысле.
Решение.
Для доказательства необходимо проверить выполнение условий (1).
Найдем математическое ожидание
m x (t )  M [ X (t )] M [cos(t   )]  M [cos t cos   sin t sin  ] 
cos t  M [cos  ]  sin t  M [sin  ]  0
2
1
1
Так как M [sin  ] 
sin  d  
cos 

2 0
2
и
M [cos  ] 
2
1
1
cos  d 
sin 

2 0
2
2
0
2
0
0
 0 где
1
– плотность вероятности
2
случайной величины  .
Заметим, что X (t )  X (t )  mx (t )  cos(t   )  0  cos(t   ) . Поэтому
K x (t1 , t 2 )  M [ X (t1 ) X (t 2 )]  M [cos(t1   ) cos(t 2   )] 
1
M cos(t 2    t1   )  cos(t1    t 2   ) 
2
1
1
 cos(t 2  t1 )  M [cos(t1  t 2  2 )]  cos(t 2  t1 )
2
2

Так как
2
1
1
2
M [cos(t1  t2  2 )] 
cos(t1  t2  2 ) d 
sin( t1  t 2  2 ) 0 

2 0
4

1
[sin( t1  t 2  4 )  sin( t1  t 2 )]  0
4
24
1
2
Итак mx (t )  0, а K x (t1 , t2 )  cos(t2  t1 ) , то есть зависит только от разности
t2  t1  
Корреляционная функция оказалась независящей от величины  , которую в
приложениях обычно трактуют как «фазу».
Ответ. Процесс стационарен в широком смысле.
2.2.Марковские процессы с дискретным множеством состояний.
Цепи Маркова.
Случайным процессом X (t )tT называется семейство случайных
величин X(t), зависящих от параметра t, который пробегает некоторое
множество значений T. Предполагается, что все эти случайные величины
определены на одном и том же вероятностном пространстве , A, P и
принимают действительные значения. Множество значений будем называть
пространством состояний, а под параметром t будем понимать время. Так что
величина X(t) указывает состояние системы в момент времени t. Множество
значений t может быть дискретным T ={0,1,2,3, ...}, или непрерывным
T  [0, ) . Иногда вместо X(t) будем использовать обозначение X t
Определение. Случайный процесс X t называется Марковским, если для
любого момента времени t0 T  [0, ) развитие процесса в последующие
моменты времени (при t  t0 ) зависит только от состояния процесса в момент
времени t0 и не зависит от того, когда и как процесс пришел в это состояние.
Пусть некоторый физический объект в каждый момент времени может
находиться в одном из своих возможных состояний, число которых конечно
или счетное В этом случае иногда говорят о дискретном множестве
состояний. Состояния могут быть качественными и описываться словами,
или количественными и характеризоваться некоторыми числами.
Представление о множестве состояний и о структуре переходов из состояния
в состояние дает схема, которая называется графом состояний. Будем стрелками
обозначать возможные переходы, а через Ei –– возможные состояния.
Рисунок 2 1
25
Например, в графе состояний (рис. 2.1) означает, что устройство новое
и не включено в работу, E1 –– устройство работает, E 2 –– устройство
неисправно, E3 –– происходит поиск причин неисправности, E 4 ––
производится ремонт, E5 –– устройство признано не подлежащим ремонту и
утилизировано. Если ремонт удался, то происходит переход в состояние E1 .
Взаимное расположение состояний в графе позволяет их
классифицировать следующим образом:
1. Состояние называется источником, если объект может выйти их
него, но попасть вновь в него не может (в приведенном примере
состояние E0 ).
2. Состояние называется поглощающим (или концевым), если в него
можно войти, но из него выйти нельзя (в приведенном примере
состояние E5 ).
3. Состояние Ei называется соседним к состоянию E j , если возможен
непосредственный переход из состояния
Ej в
состояние
Ei .
В
приведенном примере E3 соседнее состояние по отношению к E2 , но E2
не соседнее состояние по отношению к E3 .
4. Подмножество состояний называется эргодическим (или связным),
если из каждого состояния этого подмножества можно попасть в любое
другое состояние этого подмножества.
Рисунок 2 2
Например, в графе (см. рис. 2.2) два эргодических подмножества состояний:
E3 , E4 , E5  и E6 , E7 ,.
26
Случайный процесс изменения состояний объекта можно понимать как
процесс блуждания по множеству состояний графа. С точки зрения описания
объекта первостепенный интерес представляют вероятности состояний этого
объекта.
Обозначим через Pi (t ) – вероятность того, что в момент времени t
объект находится в состоянии Ei .
Очевидно, что  Pi (t )  1
i
Часто интерес представляет лишь установившийся режим работы (или
стационарный режим), в который объект входит после достаточно долгого
времени работы. При стационарном режиме процесс перехода из состояния в
состояние продолжается, но вероятности состояний не изменяются. Обозначим эти
вероятности через Pi . Так что Pi  lim Pi (t )
t 
Величину Pi можно понимать как среднюю долю времени, в течение
которой объект находится в состоянии Ei . В общем случае Pi (t ) зависят от
всей предыстории переходов из состояния в состояние до момента времени t.
Это чрезвычайно усложняет математическую модель такого процесса. В
математическом плане наиболее просты Марковские процессы, не обладающие
«памятью» о прошлом.
Еще раз повторим, что случайный процесс с дискретным множеством
состояний называется Марковским, если для любого момента времени t0
вероятность каждого из его состояний в будущем ( при t  t0 ) зависит только
от его состояния в настоящий момент и не зависит от того, когда и как
процесс пришел в это состояние. Если переходы из состояния в состояние могут
происходить только в определенные моменты времени t0 , t1 , t2 ,..., то процесс
называется цепью Маркова.
Моменты переходов из состояния в состояние называют шагами
процесса. Наглядным примером Марковской цепи могут служить детские
игры, в которых продвижение фишки зависит от выпадения той или иной
грани игрального кубика. Важными характеристиками Марковской цепи
являются условные вероятности перехода системы на k-м шаге в состояние
E j , если на предыдущем (k –1) -м шаге она была в состоянии Ei . Обозначим
эти вероятности через Pij (k ) и назовем их переходными вероятностями.
Вероятность Pii (k )
можно понимать, как вероятность сохранить свое
состояние Ei на k-м шаге. Переходные вероятности удобно записывать в виде
прямоугольной таблицы (квадратной матрицы):
27
 P11 ( k ) P12 ( k )

 P ( k ) P22 ( k )
Pij   21



 Pn1 ( k ) Pn 2 ( k )
... P1n ( k ) 

... P2 n ( k ) 

 

... Pnn ( k ) 
Эту матрицу называют матрицей переходных вероятностей или просто
переходной матрицей. Так как на каждом шаге система находиться в одном
из своих возможных состояний, то для любой строки матрицы сумма ее
элементов равна единице. Матрицы, обладающие этим свойством, называют
стохастическими.
Для однозначного в вероятностном смысле описания процесса
переходов из состояния в состояние нужно, помимо переходных матриц,
указать начальное распределение состояний, т.е. вероятности
P1 (0), P2 (0), P3 (0),..., Pn (n) . Обычно процесс начинается из определенного
состояния Ei . Тогда Pi  1, a Pj  0 при j  i
Цепь Маркова называется однородной, если переходные вероятности
не меняются от шага к шагу, т.е. Pij (k )  Pij , и мы имеем одну и ту же матрицу
перехода Pij на каждом шаге.
Заметим, что каждому графу состояний для однородной цепи
соответствует определенная переходная матрица.
Рисунок 2 3
Графу состояний (рис. 2.3) соответствует переходная матрица
 P11

 0
Pij   0

0
P
 51
P12
P22
0
P42
0
P23
P33
P43
0
0
0 P15 

0 0 
P34 0 

P44 P11 
P55 
0
где –
P11 /  1  P12  P15 , P22  1  P23 , P33  1  P34 , P44  1  P42  P43  P45 , P55  1  P51
28
(это вероятности сохранить свое состояние на очередном шаге).Пусть
задано распределение состояний в начальный момент времени:
P1 (0), P2 (0), P3 (0),..., Pn (0) .
По формуле полной вероятности получаем распределение состояний
после первого шага:
n
Pj (1)  P1 (0) P1 j (1)  P2 (0) P2 j (1)  ...  Pn (0) Pnj (1)   Pi (0) Pij (1), j  1,2,..., n
i 1
Используя полученные вероятности, можно по формуле полной
вероятности вычислить вероятности состояний на втором шаге:
n
Pj ( 2)  P1 (0) P1 j ( 2)  P2 (0) P2 j ( 2)  ...  Pn (0) Pnj ( 2)   Pi (0) Pij ( 2), j  1,2,..., n
i 1
Продолжение
соотношению
этих
рассуждений
приводит
к
рекуррентному
n
Pj (k )   Pi ( k  1) Pij ( k ), j  1,2,..., n. (1)
i 1
При определенных условиях цепи Маркова входят в стационарный
режим, при котором переходы из состояния в состояние продолжаются, но
вероятности переходов не изменяются и не зависят от номера шага. Эти
вероятности называют финальными или предельными.
Будем обозначать финальные вероятности через
Pi  lim P (k )
i
k 
Условия существования финальных вероятностей:
1) множество всех состояний должно быть эргодическим;
2) цепь должна быть однородной (во всяком случае переходные
 Pij ).
вероятности должны удовлетворять условию: Pij (k ) 
k 
3) должно быть хорошее перемешивание состояний (не должно
быть периодических циклов).
Например, для цепи с графом состояний
условие 3) не выполняется, так как при начале из состояния E1 на
нечетном шаге цепь будет находиться в состоянии E 2 , а на четном — в
состоянии E1 .
Если для однородной цепи финальное распределение существует, то
Pi  lim Pi ( k ), Pij ( k )  Pij (k  1)
k 
29
n
и равенства Pj (k )   Pi ( k  1) Pij ( k ), j  1,2,..., n. имеют вид
i 1
n
Pj  Pi Pij , j  1,2,..., n.
i 1
Иногда в этой записи выделяют слагаемые в правой части с Pjj . Тогда
n
PP  P P  P
i 1( i  j )
i
ij
j
jj
j
или
n
 P P  P ( P  1)  0, j  1,2,..., n.
i 1( i  j )
i ij
j
jj
(2)
Для определения финальных вероятностей нужно решить систему
линейных однородных уравнений. Такая система всегда совместна, (имеет
тривиальное решение Pi  0 при всех i ). Если же есть нетривиальные
решения, то их бесконечно много. Для выбора необходимого единственного
решения следует добавить условие нормировки
P1  P2  P3  ...  Pn  1
Это равенство можно добавить вместо одного из уравнений системы
(2). Итак, для нахождения финальных вероятностей состояний Марковской
цепи нужно решить систему уравнений
n
 P P  P ( P  1)  0, j  1,2,..., n.
i 1( i  j )
i ij
j
jj
(3)
P1  P2  P3  ...  Pn  1
Задача. Граф состояний Марковской цепи изображен на рисунке. При
начальном распределении P1 (0)  1, P2 (0)  P3 (0)  0 найти наименее вероятное
состояние на третьем шаге. Найти финальные вероятности состояний цепи.
Рисунок 2 4
Р е ш е н и е:
Переходная матрица этой цепи имеет вид
30
 P11

Pij   P21
P
 31
P12
P22
P32
P13   0,5 0,5 0 
 

P23    0,2 0,1 0,7 .
P33   0,1 0 0,9 
Найдем вероятности состояний цепи на первом шаге. Воспользуемся
формулой (1), но учтем, что переходные вероятности нам каждом шаге
одинаковы (цепь однородная) и поэтому Pij (k )  Pij
P1 (1)  P1 (0) P11  P2 (0) P21  P3 (0) P31  1  0,5  0  0,2  0  0,1  0,5;
P2 (1)  P1 (0) P12  P2 (0) P22  P3 (0) P32  1  0,5  0  0,1  0  0  0,5;
P3 (1)  P1 (0) P13  P2 (0) P23  P3 (0) P33  1  0  0  0,7  0  0,9  0.
На втором шаге имеем вероятности состояний:
P1 ( 2)  P1 (1) P11  P2 (1) P21  P3 (1) P31  0,5  0,5  0,5  0,2  0  0,1  0,35
P2 ( 2)  P1 (1) P12  P2 (1) P22  P3 (1) P32  0,5  0,5  0,5  0,1  0  0  0,35
P3 ( 2)  P1 (1) P13  P2 (1) P23  P3 (1) P33  0,5  0  0,5  0,7  0  0,9  0,35
Для третьего шага получаем вероятности:
P1 (3)  P1 ( 2) P11  P 2 ( 2) P21  P3 ( 2) P31  0,35  0,5  0,3  0,2  0,35  0,1  0,27
P2 ( 2)  P1 (1) P12  P 2 (1) P22  P3 (1) P32  0,35  0,5  0,3  0,1  0,35  0  0,205
P2 ( 2)  P1 (1) P12  P 2 (1) P22  P3 (1) P32  0,35  0  0,3  0,7  0,35  0,9  0,525
Можно, повторяя вывод уравнений (1), для определения финальных
вероятностей записать систему равенств Pj  P1P1 j  P2 P2 j  P3 P3 j , j  1,2,3. Но
проще составить систему (3)
 0,5P1  0,2 P2  0,1P3  0

0,5P1  0,9 P2  0
P  P  P  1
2
3
 1
Решая систему, например, по правилу Крамера, получим
P1  9 / 49  1 / 5, P2  5 / 49  1 / 10, P3  35 / 49  5 / 7  0,7
Эти результаты означают, что примерно 20% времени цепь проведет в
состоянии E1 , 10% времени –– состоянии E2 , 70% времени –– в состоянии E3 .
Ответ. E 2 –– наименее вероятное состояние на третьем шаге;
P1 = 9 / 49, P2 = 5 / 49, P3 = 35 / 49.
Задача 2. В городе N каждый житель имел одну из профессий A, B или
C. Дети в следующем поколении сохраняли профессию отцов с
вероятностями соответственно 0,6, 0,2 и 0,4 и с равными вероятностями
выбирали любую из двух других профессий. Если в данный момент
31
профессию A имеет 20% жителей города, профессию B –– 30%, а профессию
C –– 50% жителей, то
1) каково распределение по профессиям будет в следующем
поколении;
2) каким будет распределение по профессиям через много
поколений (финальное распределение)?
Р е ш е н и е:
Смену поколений будем считать шагом Марковской цепи.
Имеем начальное распределение (на нулевом шаге):
PA (0)  0,2, PB (0)  0,3, P C (0)  0,5
Переходная матрица имеет вид:
Таблица 2 1
A
0,6
0,4
0,3
A
B
C
B
0,2
0,2
0,3
C
0,2
0,4
0,4
В соответствии с формулами (1) получаем распределение вероятностей на
первом шаге (в первом поколении):
PA (1)  0,2  0,6  0,3  0,4  0,5  0,3  0,39;
PB (1)  0,2  0,2  0,3  0,2  0,5  0,3  0,25;
PC (1)  0,2  0,2  0,3  0,4  0,5  0,4  0,36.
Для вычисления финальных вероятностей составляем систему уравнений (2)
PA  PA  0,6  PB  0,4  PC  0,3;
PB  PA  0,2  PB  0,2  PC  0,3;
PC  PA  0,2  PB  0,4  PC  0,4.
Эта система уравнений при условии нормировки PA  PB  PC  1 имеет
решение
PA  18 / 39,
PB  9 / 39, PC  12 / 39.
Ответ: PA  18 / 39,
PB  9 / 39, PC  12 / 39.
32
2.2.Марковские процессы с непрерывным временем и дискретным
множеством состояний
Пусть переходы процесса из состояния в состояние происходят под
воздействием каких-то потоков событий (поток отказов, восстановлений и
т.д.). Будем считать, что переход процесса из состояния Ei в состояние E j
происходит
под
воздействием
пуассоновского
потока
событий
интенсивности ij (t ) , т.е. как только первое событие потока произошло,
тотчас произошел и переход Ei  E j . В этих условиях вероятность
перехода из состояния Ei в состояние E j за малый промежуток времени t
равна ij (t )t . Если все потоки событий, переводящих процесс из состояния в
состояние, пуассоновские, то процесс переходов будет Марковским.
Суммарный поток событий, выводящих процесс из состояния Ei ,
n
тоже будет пуассоновским с интенсивностью  ij (t ), i  j .
j 1
Тогда вероятность покинуть состояние Ei за малый промежуток
времени t равна
n
Pij   ij (t ) t , i  j ,
j 1
а вероятность сохранить состояние Ei за малый промежуток времени t
равна 1  Pij . Выведем уравнения для вероятностей состояний процесса Pi (t ) .
В момент t  t процесс будет находиться в состоянии Ei (вероятность чего
равна Pi (t  t ) ), если в момент t он находился в состоянии Ei (вероятность
чего равна Pi (t ) ) и в течении времени t оставался в этом состоянии
n
(вероятность чего равна 1   ij (t ) t , i  j ) или процесс в момент времени t
j 1
находился в любом другом состоянии (с вероятностью Pj (t ) ) и за время t
перешел в состояние Ei (вероятность чего равна  ji (t )t, i  j ).
Символическая запись этой длинной фразы имеет вид
n

 n
Pi (t  t )  Pi (t ) 1   ij (t )t    Pj (t )ij (t )t
 j 1
 j 1
Если перегруппировать слагаемые, разделить равенство на t , то при
t  0 получим систему уравнений.
n
n
j 1
j 1
Pi(t )   Pj (t ) ji (t )  Pi (t ) ij (t ), i  1,2,..., n.
(1)
Это система уравнений Колмогорова А.Н. Для решения системы нужно
задать начальные условия, а вместо одного из уравнений можно
использовать условие нормировки
33
n
 P (t )  1
j 1
j
Пример 1.На рис. 2.5 дан граф состояний некоторого объекта.
Интенсивности переходов из состояния в состояние указаны на этом же
рисунке. Записать систему уравнений для вероятностей состояний объекта.
При постоянных l, m, n и p найти предельные (финитные) вероятности его
состояний.
Рисунок 2 5
Р е ш е н и е:
Система уравнений Колмогорова (1) в рассматриваемом случае имеет
вид
P1(t )  P2 (t ) (t )  P3 (t ) (t )  P1 (t ) (t ),
P2   P2 (t ) (t )   (t )  P1 (t ) (t ),
P3   P3 (t ) (t )  P2 (t )  (t ).
Вместо одного из уравнений (например, вместо второго) можно
воспользоваться
условием
нормировки
Если
P1 (t )  P2 (t )  P3 (t )  1 .
 (t )   ,  (t )  ,  (t )   , то существуют стационарные вероятности, для
которых все Pi(t )  0 и система уравнений принимает вид
 P1  P2  P3  0,
P1  (   ) P2  0,
P1  P2  P3  1
Эта система имеет решение
P1  (   ) /(       ),
P2   /(       ),
P3   /(       )
34
2.4. Полумарковские процессы
Случайный процесс конечным числом состояний называется
полумарковским процессом (ПМП), если время пребывания процесса в
каждом из состояний случайно и зависит только от этого состояния и от того,
в какое состояние затем перейдет процесс.
Пусть E1 , E2 ,..., En –– возможные состояния процесса. Чтобы задать
ПМП необходимо указать:
1) матрицу вероятностей переходов Pij , i, j  1,2,3,..., n;
2) матрицу функций распределения Fij (x ) , Fij (x ) где –– функция
распределения времени пребывания процесса в состоянии Ei при
условии, что следующим состоянием будет E j ;
3) начальное распределение Pi (0) (например, P1 (0)  1, Pi (0)  0 при
i  1 –– это означает, что процесс начинается из состояния E1 ).
Заметим, что Марковский процесс с непрерывным временем и
конечным числом состояний можно считать ПМП, у которого время
пребывания в каждом состоянии распределено показательно. Марковскую
цепь можно рассматривать в непрерывном времени как ПМП, у которого
время пребывания в каждом состоянии равно 1.
Практический интерес представляют многие характеристики ПМП:
1) среднее время достижения состояния Ei из начального состояния;
2) среднее число попаданий в состояние Ei за время t ;
3) стационарные вероятности того, что процесс находится в
состоянии Ei .
Рассмотрим способы вычисления некоторых характеристик процесса.
Если обозначить функцию распределения времени пребывания в
n
состоянии Ei через Fi (t )   Pij Fij (t ) , то
j 1

n

n
0
j 1
0
j 1
mi   t dFi (t )   Pij  t dFij (t )   Pij mij
(1)
где mi –– среднее время пребывания в состоянии Ei , а mij ––
математическое ожидание, соответствующее распределению Fij (t ) .
35
Обозначим через Lij –– среднее время до первого попадания из
состояния Ei в состояние E j . Легко видеть, что
Lij  Pij mij   P ik (mik  Lkj )
k j
или
Lij   P ik Lkj   Pik mik  Pij mij
k j
k j
Откуда в силу (1) получаем систему уравнений для определения Lij
Lij   Pik Lkj  mi
(2)
k j
Аналогично можно провести рассуждения о среднем времени
пребывания процесса в множестве состояний M. Обозначим через m j (M )
среднее время пребывания процесса в множестве состояний M, если это
пребывание началось из состояния E j  M . Можно показать, что
m j ( M )   Pik m j ( M ) mi
(3)
jM
В заключение приведем частичную формулировку одной из важных
теорем о ПМП.
Теорема Пайка (Pyke). Стационарные вероятности пребывания
процесса в состояниях E j , j  1,2,..., k равны
Pj 
m ju j
k
m u
i 1
(4)
i i
где u j –– финитные вероятности вложенной Марковской цепи, mi –– среднее
время пребывания в состоянии Ei , а Pj –– стационарные вероятности
состояний.
Пример В одноканальную систему с потерями поступает простейший
поток требований интенсивности  . Времена обслуживания независимы и
каждое имеет некоторое распределение B(x ) . В любой момент времени
обслуживающий прибор может отказать. Если прибор свободен, то время его
безотказной работы в этом состоянии имеет показательное распределение с
36
параметром 0 . Время безотказной работы прибора, занятого
обслуживанием, тоже имеет показательное распределение, но с параметром
1 . Отказавший прибор тотчас начинают ремонтировать и время
восстановления имеет распределение R(x ) . При отказе прибора
обсуживаемое требование теряется, а новые требования не принимаются до
окончания ремонта. Все названные величины стохастически независимы.
Необходимо найти среднее время пребывания системы в отказном
состоянии.
Решение. Будем различать состояние E0 , в котором обслуживающий
прибор исправен и свободен, состояние E1 , в котором прибор обслуживает
требование, состояние E2 , в котором прибор неисправен и ремонтируется.
Пусть q(t ) –– состояние системы в момент времени t. Процесс q(t )
является полумарковским. Назовем его характеристики.
1) Переходные вероятности:
p00  0; ;
p01  P (того, что требование поступит в свободную систему ранее, чем

 t
 t
прибор выйдет из строя)   (1  e )0 e dt 
0
0
p 02  1  p 01 

  0
;
0
  0
p10  P (того, что время обслуживания меньше времени безотказной

работы занятого прибора)   B( x )1e
1t
dt   .
0
p11  0; p12  1  p10  1   ; p20  1; p21  p22  0.
Итак, переходная матрица имеет вид:

0


1



(   0 )
0
0
0 

(   0 ) 
1  
0



Запишем уравнения для финитных вероятностей вложенной цепи:
37
u0  u1  u2 ; u1 

  0
u0 ; u 2 
0
u  (1   )u1 .
  0 0

Из первого и второго уравнений следует, что u2  u0 1  



.
  0 
Поэтому из

 
  1 получаем, что
u0  u0 1  
  0
  0 

  0
1
u0 

,
1   /(  0 )  1   /(  0 ) 3  20  
условия нормировки u0 

 /(  0 )


,
1   /(  0 )  [1   /(  0 )] 3  20  
1   /(  0 )
  0  
u2 

1   /(  0 )  [1   /(  0 )] 3  20  
u1 
2. Вычислим теперь среднее время пребывания в каждом из состояний.
Время пребывания в состоянии E0 равно минимальному из времени паузы и
времени безотказной работы свободного прибора. Пусть X –– время
пребывания в состоянии E0 , X 0 –– время безотказной работы в
ненагруженном состоянии, а X 1 –– время до прихода ближайшего
требования. Тогда X имеет функцию распределения
F ( x )  P( X  x )  P[min( X 0 , X 1 )  x ]  1  P[min( X 0 , X 1 )  x ] 
 1  P[ X 0  x, X 1  x ]  1  e 0 x e 1x  1  e ( 0 1 ) x
Это показательный закон распределения с параметром
0  1
среднее время пребывания в состоянии E равно m0  ( 0  1 )
.Поэтому
1
0
.
Время пребывания в состоянии E1 равно минимуму времени
обслуживания
и времени выхода из строя занятого прибора. Поэтому

m1   [1  B(t )] e 1t dt
0
Это равенство получается из следующих соображений. Если X ––
неотрицательная случайная величина с функцией распределения F ( x)  P( X  x),
то


0
0
M ( X )   P( X  x )dx   [1  F ( x )]dx
в этом можно убедиться, взяв по частям интеграл в правой части равенства.
Пусть T –– время пребывания системы в состоянии E1 , V –– время обслуживания,
38
W –– время безотказной работы прибора в занятом состоянии. Тогда T  min{V , W } .
Так как P(V  x)  1  B( x), а P(W  x)  exp(1 x) , то

m1  M (T )   P(T  x )dx 
0



0
0
0
  P(min(V , W )  x )dx   P(V  x, W  x )dx   [1  B(t )]e 1t dt
Время пребывания в состоянии E3 равно времени ремонта. Поэтому

m2  mR   tdR(t )
0
Доля времени пребывания в отказном состоянии равна стационарной
вероятности состояния E 2 . По формуле (4) эта стационарная вероятность
равна
P2 
m2u 2
2
m u
i 0
Ответ :

m2 (  0   )
.
(  0 ) /(  1 )  m1  m2 (  0   )
i i
m2 (  0   )
(  0 ) /(  1 )  m1  m2 (  0   )
39
Контрольные задачи для самостоятельного решения обучающимися по 1
главе.
№1
Система случайных величин (X,Y) задана законом распределения
X\Y
1
2
3
1
1/18
1/12
1/36
2
1/9
1/6
1/18
3
1/6
1/4
1/12
Найти математические ожидания m x , m y и дисперсии D(X), D(Y) случайных
величин X,Y.
№2
Система случайных независимых величин (X,Y) задана законом
распределения
X\Y
1
2
3
1
1/18
1/12
1/36
2
3/18
1/6
0
3
1/6
1/4
1/12
Найти математические ожидания m x , m y и дисперсии D(X), D(Y) случайных
величин X,Y.
№3
Система случайных величин (X,Y) задана законом распределения
X\Y
1
2
3
4
1
0,07
0,04
0,11
0,11
2
0,08
0,11
0,06
0,08
3
0,09
0,13
0,10
0,02
Найти математические ожидания m x , m y , дисперсии D(X), D(Y),
коэффициент корреляции rxy случайных величин X,Y.
№4
Дана таблица определяющая закон распределения системы двух случайных
величин (X,Y)
X\Y
10
20
30
20
3
2

40

4
2
60
0
2
5
40
Найти: коэффициент  ; математические ожидания m x , m y ; дисперсии D(X),
D(Y); коэффициент корреляции rxy случайных величин X,Y
№5
Подбрасывают два игральных кубика. Пусть X ––число выпавших «пятерок»,
а Y –– число нечетных очков.
Если кубики однородны и симметричны, то вероятность выпадения каждой
грани равна 1/6. Запишем сначала закон распределения случайного вектора {
X ,Y}. Каждая из компонент вектора может принимать только значения 0, 1 и
2. Поэтому закон распределения можно представить в виде таблицы:
X\Y
0
1
2
0
1/4
0
0
1
1/3
1/6
0
2
1/9
1/9
1/36
Найдите математические ожидания m x , m y ; дисперсии D(X), D(Y)
коэффициент корреляции rXY .
№6
Плотность совместного распределения случайных величин X,Y задана
формулой
a (1  xy 3 ), при x  1, y  1
f ( x, y )  
0 в остальных случаях
Найти: коэффициент а ; математические ожидания m x , m y ; дисперсии D(X),
D(Y); коэффициент корреляции rxy случайных величин X,Y
№7
Непрерывная двумерная случайная величина X,Y задана плотностью
распределения вероятностей
c( x  y ), при 0  x  1, 0  y  1
f ( x, y )  
0 в противом случае
Зависимы ли X и Y? Найти: коэффициент с ; математические ожидания m x ,
m y ; дисперсии D(X), D(Y); коэффициент корреляции rxy случайных величин
X,Y
№8
Система случайных величин (Х, У) подчинена закону распределения с
плотностью
a ( x 2  y 2 ), при x 2  y 2  r 2
f ( x, y )  
при x 2  y 2  r 2
0
Найти коэффициент а, математические ожидания m x , m y .
41
№9
Система случайных величин (Х,Y ) подчинена закону распределения с
плотностью
axy вобласти D
f ( x, y )  
,
внеэтойобласти
0
Область D-треугольник, ограниченный прямыми х+у-1= 0, х = 0, y = 0.
Найти: 1) коэффициент а; 2) математические ожидания m x , m y .; 3)
дисперсии; 4) коэффициент корреляции rxy случайных величин X,Y.
№ 10
Система случайных величин (Х,Y ) подчинена закону распределения с
плотностью
a 2  x 2  y 2 при x 2  y 2  a 2 ( a  0)
f ( x, y )  
,
при x 2  y 2  a 2
0
Найти: 1) коэффициент а; 2) математические ожидания m x , m y .; 3)
дисперсии; 4) коэффициент корреляции rxy случайных величин X,Y.
Задача. 11
Случайная величина X имеет нормальный закон распределения X  N (m;  2 )
Известно, что
а) для нечетных вариантов P( X  a)   , P( X  b)  
б) для четных вариантов P( X  a)   , P( X  b)  
Найдите значения параметров m и  . Сделайте эскиз функции плотности
вероятности при найденных значениях параметров.( См. и исходные данные
к задаче в табл. 6).
2
№
а

b

1
2
3
4
5
6
7
8
9
10
11
12
-2
-1
-1
0
-2
2
1
1
-6
3
-3
-3
0,0668
0,1587
0,4332
0,1587
0,1587
0,8413
0,1587
0,1587
0,0227
0,1587
0,1587
0,1587
3
5
4
6
1
-1
5
5
3
6
0
0
0,8413
0,0227
0,8413
0,0227
0,6915
0,6915
0,8413
0,1587
0,8413
0,0227
0,6915
0,3085
42
13 0
14 -1/2
15 -3
0,3446
0,4013
0,1587
5
2
0
0,7258
0,8413
0,0227
Задача 12.
Лотерейный билет стоит 20 рублей. С вероятностью p1 билет окажется без
выигрыша, с вероятностью p2 на билет выпадет выигрыш ценой 100 рублей и
с вероятностью p3 билет выиграет выигрыш ценой 200 рублей. Какова
вероятность остаться в проигрыше, если приобрести n билетов? (См.
исходные данные в таблице 7)
№
p1
p2
p3
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,9
0,08
0,07
0,06
0,09
0,08
0,07
0,06
0,09
0,08
0,07
0,06
0,09
0,08
0,07
0,06
0,02
0,03
0,04
0,01
0,02
0,03
0,04
0,01
0,02
0,03
0,04
0,01
0,02
0,03
0,04
n
20
60
20
50
30
50
30
45
25
45
25
40
35
40
35
35
43
Контрольные задачи для самостоятельного решения обучающимися по 2
главе.
№1
Задача. По заданному графу состояний Марковской цепи написать
переходную матрицу вероятностей. При начальном распределении
P1 (0)  1, P2 (0)  P3 (0)  P4 (0)  0 найти наиболее вероятное состояние на
третьем шаге. Найти предельные (финальные) вероятности состояний цепи.
В вариантах 1, 7, 13, 19, 25 использовать граф № 1; в вариантах 2, 8, 14, 20,
26 –– граф № 2; в вариантах 3, 9, 15, 21, 27 –– граф № 3; в вариантах 4, 10, 16,
22, 28 – граф № 4; в вариантах 5, 11, 17, 23, 29 –– граф № 5; в вариантах 6, 12,
18, 24, 30 –– граф № 6. (См. предыдущую задачу и исходные данные.)
№
a1
1
0,8 0,2 0,5 0,4 0,5 0,3 0,6 16
0,5 0,3 0,4 0,3 0,6 0,6 0,9
2
0,3 0,4 0,6 0,4 0,5 0,4 0,4 17
0,3 0,2 0,8 0,7 0,7 0,6 0,2
3
0,1 0,8 0,4 0,4 0,5 0,8 0,4 18
0,5 0,9 0,4 0,6 0,4 0,3 0,4
4
0,4 0,2 0,4 0,5 0,6 0,5 0,8 19
0,8 0,1 0,6 0,2 0,6 0,4 0,3
5
0,3 0,2 0,9 0,6 0,7 0,7 0,2 20
0,4 0,3 0,4 0,5 0,7 0,5 0,4
6
0,5 0,9 0,4 0,3 0,5 0,6 0,4 21
0,1 0,9 0,5 0,4 0,7 0,8 0,2
7
0,7 0,2 0,6 0,5 0,3 0,5 0,5 22
0,2 0,2 0,4 0,8 0,5 0,7 0,8
8
0,2 0,2 0,5 0,5 0,7 0,3 0,5 23
0,3 0,2 0,9 0,5 0,8 0,7 0,1
9
0,1 0,8 0,5 0,4 0,6 0,8 0,3 24
0,4 0,8 0,5 0,5 0,3 0,4 0,4
10
0,2 0,1 0,5 0,5 0,8 0,6 0,9 25
0,7 0,2 0,7 0,3 0,6 0,4 0,5
11
0,2 0,1 0,8 0,7 0,6 0,8 0,2 26
0,4 0,4 0,5 0,3 0,8 0,3 0,6
12
0,4 0,8 0,5 0,4 0,4 0,5 0,7 27
0,1 0,9 0,3 0,5 0,8 0,6 0,2
13
0,8 0,3 0,7 0,3 0,6 0,5 0,5 28
0,3 0,1 0,3 0,6 0,6 0,8 0,9
14
0,3 0,4 0,5 0,3 0,8 0,5 0,3 29
0,4 0,2 0,9 0,5 0,7 0,8 0,2
15
0,1 0,9 0,4 0,5 0,8 0,7 0,1 30
0,6 0,9 0,4 0,7 0,6 0,6 0,3
a2
a3
a4
a5
a6
a7
№
44
a1
a2
a3
a4
a5
a6
a7
Граф № 1
Граф № 2
Граф № 3
45
Граф № 4
Граф № 5
Граф № 6
46
№2
Задача . Каждый житель некоторого города принадлежит к одной из социальных
групп (богатые, средний класс, живущие за чертой бедности). По истечении года
представитель i-й группы сохраняет свой социальный статус с вероятностью Pi ,
или с равными вероятностями переходит в одну из двух других групп. Пусть в
данный момент a % жителей богаты, b % относятся к среднему классу, c % живут в
нищете. В предположении, что описанная социальная динамика остается
неизменной на протяжении многих лет, определите финальный
социальный состав жителей города. (См. задачу 2 и исходные данные.)
№
a
b
c
P1
P2
P3
№
a
b
c
P1
P2
P3
1
5
65
35
0,9
0,5
0,9
16
5
65
35
0,9
0,6
0,9
2
10
65
30
0,8
0,6
0,9
17
10
65
30
0,95 0,7
0,8
3
10
60
30
0,7
0,8
0,9
18
10
60
30
0,9
0,5
0,9
4
15
55
30
0,9
0,6
0,9
19
15
55
30
0,8
0,6
0,9
5
10
70
20
0,95 0,7
0,8
20
10
70
20
0,7
0,8
0,9
6
5
70
25
0,9
0,5
0,9
21
5
70
25
0,9
0,6
0,9
7
15
65
20
0,8
0,6
0,9
22
15
65
20
0,95 0,7
0,8
8
8
70
22
0,7
0,8
0,9
23
8
70
22
0,9
0,5
0,9
9
5
65
35
0,9
0,6
0,9
24
5
65
35
0,8
0,6
0,9
10
10
65
30
0,95 0,7
0,8
25
10
65
30
0,7
0,8
0,9
11
10
60
30
0,9
0,5
0,9
26
10
60
30
0,9
0,6
0,9
12
15
55
30
0,8
0,6
0,9
27
15
55
30
0,95 0,7
0,8
13
10
70
20
0,7
0,8
0,9
28
10
70
20
0,9
0,5
0,9
14
5
70
25
0,9
0,6
0,9
29
5
70
25
0,8
0,6
0,9
15
15
65
20
0,95 0,7
0,8
30
15
65
20
0,7
0,8
0,9
47
№3
Задача . На рис. 2 изображен граф состояний и возможных переходов
частицы при случайном блуждании. На графе указаны и интенсивности
переходов для соответствующих пар вершин. Например, 5 – интенсивность
переходов E1  E5 и E5  E1 (вероятность любого из этих переходов за малый
промежуток времени t равна 5t   (t ) ). Запишите систему уравнений
Колмогорова (1) и найдите стационарные вероятности положений частицы.
(См. задачу 1 и исходные данные.)
рис.2 1
№ 1
2
3
4
5 № 1
2
3
4
5 № 1
2
3
4
5
1
1
1
2
1
1
11 1
1
1
1
2
21 1
2
1
2
2
2
1
1
1
2
2
12 2
1
1
1
2
22 2
1
1
2
1
3
2
1
2
2
1
13 1
1
2
2
1
23 1
2
1
2
1
4
1
2
1
1
1
14 2
2
1
1
2
24 1
2
1
1
2
5
2
1
2
1
1
15 1
1
2
2
2
25 2
2
1
2
1
6
1
2
2
2
1
16 1
1
2
1
3
26 2
1
2
1
2
7
1
2
2
1
1
17 1
1
1
2
1
27 1
2
1
1
3
8
1
1
2
2
2
18 2
2
1
1
1
28 2
1
1
1
3
9
1
1
1
1
3
19 2
2
2
1
1
29 1
3
1
1
2
10 2
1
1
1
1
20 2
1
1
2
2
30 1
1
1
1
1
48
№4
Задача 4 В одноканальную систему с потерями поступает простейший поток
требований интенсивности  . Времена обслуживания независимы и каждое
имеет показательное распределение с параметром  .
В любой момент времени обслуживающий прибор может отказать. Если
прибор свободен, то время его безотказной работы в этом состоянии имеет
показательное распределение с параметром 0 . Время безотказной работы
прибора, занятого обслуживанием, тоже имеет показательное распределение,
но с параметром 1 . Отказавший прибор тотчас начинают ремонтировать, и
время восстановления имеет распределение
0 при x  1

R( x )  ln x при 1  x  e,
1 при 1  x

При отказе прибора обсуживаемое требование теряется, а новые требования
не принимаются до окончания ремонта. Все названные величины
стохастически независимы. Необходимо найти среднее время пребывания
системы в отказном состоянии. (См. пример 4, если N –– номер варианта, то
 = N / 15,  =N /10 , 0 =N/100 , 1 = N / 50.)
Указания по выбору варианта.
Рабочей программой дисциплины «Теория случайных процессов»
предусмотрено выполнение контрольной работы, состоящего из двух
контрольных работ. Контрольная работа по 1 главе состоит из 3 контрольных
задач, которые выбираются из задачи №1 - 10 и №11-12, а контрольная
работа по 2 главе из 3 контрольных задач (№1-3). Варианты задач
контрольной работы по 1 и 2 главе содержатся в задании, которое
обучающийся получает у преподавателя, ведущего ПЗ или самостоятельно
выбирает из файла заданий своей группы по номеру обучающегося,
образованному последней цифрой номера, которым он записан в списке.
49
Приложение 1
50
Список литературы
1. Чудесенко В.Ф. Сборник заданий по специальным курсам высшей
математики. –– М., «Высшая школа», 1983
2. Крупин В.Г., Павлов А.Л., Попов Л.Г. Высшая Математика.
Уравнения математической физики. Сборник задач с решениями. ––М.,
Издательский дом МЭИ, 2011
3. Бородин А. Н Случайные процессы. . –– М., СПб., Издательство
«Лань», 2013
4. Виленкин Н.Я. Комбинаторика. –– М., «Наука». Гл. ред. физ.-мат.
лит., 1969.
5. Сборник
задач
по
математике
для
втузов.
Ч.
3.
Теория
вероятностей и математическая статистика. / Под редакцией А.В.
Ефимова.
–– М., «Наука». Гл. ред. физ.-мат. лит., 1990.
6. Вентцель Е.С., Овчаров А.А. Теория случайных процессов и ее
приложения. –– М., «Наука». Гл. ред. физ.-мат. лит., 1991.
7. Сборник
задач
по
теории
вероятностей,
математической
статистике и теории случайных функций. / Под ред. А.А. Свешникова.
––СПб., Издательство «Лань», 2007.
8. Кальберг М.Я., Сухов Ю.М. Вероятность и статистика в примерах и
задачах Т. 1. –– М., Издательство МЦНМО, 2007.
9. . Кальберг М.Я., Сухов Ю.М. Вероятность и статистика в примерах и
задачах
Т.
2.
––
М.,
51
Издательство
МЦНМО,
2010.
Селимсултанова Рита Ильясовна
ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ
Учебно-методическое пособие для выполнения
контрольных работ для обучающихся по направлению
подготовки 01.03.04 «Прикладная математика»
Корректор Чагова О.Х.
Редактор Чагова О.Х.
Сдано в набор 21.01.2019 г.
Формат 60х84/16
Бумага офсетная.
Печать офсетная.
Усл. печ. л. 3,02
Заказ №3467
Тираж 100 ээкз.
Оригинал-макет подготовлен
в Библиотечно-издательском центре СевКавГГТА
369000, г. Черкесск, ул. Ставропольская, 36
52