Теоретические основы математических и инструментальных методов экономики. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции

Как часто Вам приходилось слышать высказывания, в которых говорилось о том, что одно явление коррелируется с другим?

«Высокий рост коррелируется с хорошим образованием и счастьем, установили эксперты социологической службы Gallup.»

«Цена на нефть коррелируется с курсами валют.»

«Боль в мышцах после тренировки не коррелируется с гипертрофией мышечных волокон.»

Складывается впечатление, что понятие «корреляция» стало широко использоваться не только в науке, но и в повседневной жизни. Корреляция отражает степень линейной зависимости между двумя случайными явлениями. Так, когда цены на нефть начинают падать, то курс доллара относительно рубля начинает расти.

Из всего выше сказанного, можно сделать вывод о том, что при описании двумерных случайных величин бывает недостаточно таких хорошо известных характеристик, как математическое ожидание, дисперсия, среднее квадратическое отклонение. Поэтому часто для их описания используются еще две очень важные характеристики: ковариация и корреляция .

Ковариация

Ковариацией $cov\left(X,\ Y\right)$ случайных величин $X$ и $Y$ называется математическое ожидание произведения случайных величин $X-M\left(X\right)$ и $Y-M\left(Y\right)$, то есть:

$$cov\left(X,\ Y\right)=M\left(\left(X-M\left(X\right)\right)\left(Y-M\left(Y\right)\right)\right).$$

Бывает удобно вычислять ковариацию случайных величин $X$ и $Y$ по следующей формуле:

$$cov\left(X,\ Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right),$$

которая может быть получена из первой формулы, используя свойства математического ожидания. Перечислим основные свойства ковариации .

1 . Ковариация случайной величины с самой собой есть ее дисперсия.

$$cov\left(X,\ X\right)=D\left(X\right).$$

2 . Ковариация симметрична.

$$cov\left(X,\ Y\right)=cov\left(Y,\ X\right).$$

3 . Если случайные величины $X$ и $Y$ независимы, то:

$$cov\left(X,\ Y\right)=0.$$

4 . Постоянный множитель можно выносить за знак ковариации.

$$cov\left(cX,\ Y\right)=cov\left(X,\ cY\right)=c\cdot cov\left(X,\ Y\right).$$

5 . Ковариация не изменится, если к одной из случайных величин (или двум сразу) прибавить постоянную величину:

$$cov\left(X+c,\ Y\right)=cov\left(X,\ Y+c\right)=cov\left(X+x,\ Y+c\right)=cov\left(X,\ Y\right).$$

6 . $cov\left(aX+b,\ cY+d\right)=ac\cdot cov\left(X,\ Y\right)$.

7 . $\left|cov\left(X,\ Y\right)\right|\le \sqrt{D\left(X\right)D\left(Y\right)}$.

8 . $\left|cov\left(X,\ Y\right)\right|=\sqrt{D\left(X\right)D\left(Y\right)}\Leftrightarrow Y=aX+b$.

9 . Дисперсия суммы (разности) случайных величин равна сумме их дисперсий плюс (минус) удвоенная ковариация этих случайных величин:

$$D\left(X\pm Y\right)=D\left(X\right)+D\left(Y\right)\pm 2cov\left(X,\ Y\right).$$

Пример 1 . Дана корреляционная таблица случайного вектора $\left(X,\ Y\right)$. Вычислить ковариацию $cov\left(X,\ Y\right)$.

$\begin{array}{|c|c|}
\hline

\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 & 0,05 & p_{22} & 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end{array}$

События $\left(X=x_i,\ Y=y_j\right)$ образуют полную группу событий, поэтому сумма всех вероятностей $p_{ij}$, указанных в таблице, должна быть равна 1. Тогда $0,1+0+0,2+0,05+p_{22}+0+0+0,2+0,05+0,1+0+0,1=1$, отсюда $p_{22}=0,2$.

$\begin{array}{|c|c|}
\hline
X\backslash Y & -6 & 0 & 3 \\
\hline
-2 & 0,1 & 0 & 0,2 \\
\hline
0 & 0,05 & 0,2 & 0 \\
\hline
1 & 0 & 0,2 & 0,05 \\
\hline
7 & 0,1 & 0 & 0,1 \\
\hline
\end{array}$

Пользуясь формулой $p_{i} =\sum _{j}p_{ij} $, находим ряд распределения случайной величины $X$.

$\begin{array}{|c|c|}
\hline
X & -2 & 0 & 1 & 7 \\
\hline
p_i & 0,3 & 0,25 & 0,25 & 0,2 \\
\hline
\end{array}$

$$M\left(X\right)=\sum^n_{i=1}{x_ip_i}=-2\cdot 0,3+0\cdot 0,25+1\cdot 0,25+7\cdot 0,2=1,05.$$

$$D\left(X\right)=\sum^n_{i=1}{p_i{\left(x_i-M\left(X\right)\right)}^2}=0,3\cdot {\left(-2-1,05\right)}^2+0,25\cdot {\left(0-1,05\right)}^2+0,25\cdot {\left(1-1,05\right)}^2+$$

$$+\ 0,2\cdot {\left(7-1,05\right)}^2=10,1475.$$

$$\sigma \left(X\right)=\sqrt{D\left(X\right)}=\sqrt{10,1475}\approx 3,186.$$

Пользуясь формулой $q_{j} =\sum _{i}p_{ij} $, находим ряд распределения случайной величины $Y$.

$\begin{array}{|c|c|}
\hline
Y & -6 & 0 & 3 \\
\hline
p_i & 0,25 & 0,4 & 0,35 \\
\hline
\end{array}$

$$M\left(Y\right)=\sum^n_{i=1}{y_ip_i}=-6\cdot 0,25+0\cdot 0,4+3\cdot 0,35=-0,45.$$

$$D\left(Y\right)=\sum^n_{i=1}{p_i{\left(y_i-M\left(Y\right)\right)}^2}=0,25\cdot {\left(-6+0,45\right)}^2+0,4\cdot {\left(0+0,45\right)}^2+0,35\cdot {\left(3+0,45\right)}^2=11,9475.$$

$$\sigma \left(Y\right)=\sqrt{D\left(Y\right)}=\sqrt{11,9475}\approx 3,457.$$

Поскольку $P\left(X=-2,\ Y=-6\right)=0,1\ne 0,3\cdot 0,25$, то случайные величины $X,\ Y$ являются зависимыми.

Определим ковариацию $cov\ \left(X,\ Y\right)$ случайных величин $X,\ Y$ по формуле $cov\left(X,\ Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right)$. Математическое ожидание произведения случайных величин $X,\ Y$ равно:

$$M\left(XY\right)=\sum_{i,\ j}{p_{ij}x_iy_j}=0,1\cdot \left(-2\right)\cdot \left(-6\right)+0,2\cdot \left(-2\right)\cdot 3+0,05\cdot 1\cdot 3+0,1\cdot 7\cdot \left(-6\right)+0,1\cdot 7\cdot 3=-1,95.$$

Тогда $cov\left(X,\ Y\right)=M\left(XY\right)-M\left(X\right)M\left(Y\right)=-1,95-1,05\cdot \left(-0,45\right)=-1,4775.$ Если случайные величины независимы, то их ковариации равна нулю. В нашем случае $cov(X,Y)\ne 0$.

Корреляция

Коэффициентом корреляции случайных величин $X$ и $Y$ называется число:

$$\rho \left(X,\ Y\right)={{cov\left(X,\ Y\right)}\over {\sqrt{D\left(X\right)D\left(Y\right)}}}.$$

Перечислим основные свойства коэффициента корреляции .

1 . $\rho \left(X,\ X\right)=1$.

2 . $\rho \left(X,\ Y\right)=\rho \left(Y,\ X\right)$.

3 . $\rho \left(X,\ Y\right)=0$ для независимых случайных величин $X$ и $Y$.

4 . $\rho \left(aX+b,\ cY+d\right)={sgn \left(ac\right)\rho \left(X,\ Y\right)\ }$, где ${sgn \left(ac\right)\ }$ - знак произведения $ac$.

5 . $\left|\rho \left(X,\ Y\right)\right|\le 1$.

6 . $\left|\rho \left(X,\ Y\right)\right|=1\Leftrightarrow Y=aX+b$.

Ранее было сказано, что коэффициент корреляции $\rho \left(X,\ Y\right)$ отражает степень линейной зависимости между двумя случайными величинами $X$ и $Y$.

При $\rho \left(X,\ Y\right)>0$ можно сделать вывод о том, что с ростом случайной величины $X$ случайная величина $Y$ имеет тенденцию к увеличению. Это называется положительной корреляционной зависимостью. Например, рост и вес человека связаны положительной корреляционной зависимостью.

При $\rho \left(X,\ Y\right)<0$ можно сделать вывод о том, что с ростом случайной величины $X$ случайная величина $Y$ имеет тенденцию к уменьшению. Это называется отрицательной корреляционной зависимостью. Например, температура и время сохранности продуктов питания связаны между собой отрицательной корреляционной зависимостью.

При $\rho \left(X,\ Y\right)=0$ случайные величины $X$ и $Y$ называются некоррелированными. Стоит отметить, что некоррелированность случайных величин $X$ и $Y$ не означает их статистическую независимость, это говорит лишь о том, что между ними нет линейной зависимости.

Пример 2 . Определим коэффициент корреляции $\rho \left(X,\ Y\right)$ для двумерной случайной величины $\left(X,\ Y\right)$ из примера 1.

Коэффициент корреляции случайных величин $X,\ Y$ равен $r_{XY} ={cov(X,Y)\over \sigma (X)\sigma (Y)} ={-1,4775\over 3,186\cdot 3,457} =-0,134.$ Поскольку $r_{XY}<0$, то с ростом $X$ случайная величина $Y$ имеет тенденцию к уменьшению (отрицательная корреляционная зависимость).

Для описания системы двух случайных величин, кроме математических ожиданий и дисперсий составляющих пользуются и другими характеристиками, к числу которых относятся корреляционный момент икоэффициент корреляции (кратко было упомянуто в конце Т.8.п.8.6).

Корреляционным моментом (иликовариацией, или моментом связи ) двух случайных величинX иY называется м. о. произведения отклонений этих величин (см. равенство (5) п. 8.6):

Следствие 1. Длякорреляционного момента с.в. X иY также справедливы равенства:

,

где соответствующие централизованные с.в.X иY (см. п.8.6.).

При этом: если
- двумерная д.с.в., то ковариация вычисляется по формуле

(8)
;

если
- двумерная н.с.в., то ковариация вычисляется по формуле

(9)

Формулы (8) и (9) получены на основании формул (6) п.12.1. Имеет место вычислительная формула

(10)

которая выводится из определения (9) и на основании свойств м.о., действительно,

Следовательно, формул (36) и (37) можно переписать в виде

(11)
;

Корреляционный момент служит для характеристики связи между величинами X иY .

Как будет показано ниже, корреляционный момент равен нулю, если X иY являются независимыми;

Следовательно, если корреляционный момент не равен нулю, то X и Y – зависимые случайные величины.

Теорема12.1. Корреляционный момент двух независимых случайных величин X и Y равен нулю, т.е. для независимых с.в. X и Y ,

Доказательство. Так какX иY независимые случайные величины, то их отклонения

и

т акже независимы. Пользуясь свойствами математического ожидания (математическое ожидание произведения независимых с. в. равно произведению математических ожиданий сомножителей
,
, поэтому

Замечание. Из этой теоремы следует, что если
то с.в. X иY зависимы и в таких случаях с.в. X иY называюткоррелированными . Однако из того, что
не следует независимость с.в.X иY .

В этом случае (
с.в.X иY называютнекоррелированными, тем самым из

независимости вытекает некоррелированность ; обратное утверждение, вообще говоря, неверно (см. далее пример 2.)

Рассмотрим основные свойства корреляционного момента.

C войства ковариации:

1. Ковариация симметрична, т.е.
.

Непосредственно следует из формулы (38).

2. Имеют место равенства:т.е. дисперсия с.в. является ковариацией её с самой собой.

Эти равенства прямо следуют из определения дисперсии и равенство (38) соотвеиственно при

3. Справедливы равенства:

Эти равенства выводятся из определения дисперсии, ковариации с.в.
и, свойств 2.

По определению дисперсии (с учётом централизованности с.в.
) мы имеем

теперь, на основании (33) и свойств 2 и 3, получим первое (со знаком плюс) свойство 3.

Аналогично, вторая часть свойства3, выводится из равенство

4. Пусть
постоянные числа,
тогда справедливы равенства:

Обычно эти свойства называются свойствами однородностью первого порядка и периодичностью по аргументам.

Докажем первое равенство, при этом будем использовать свойства м.о.
.

Теорема 12.2. Абсолютное значение корреляционного момента двух произвольных случайных величин X и Y не превышает среднего геометрического их дисперсий: т.е.

Доказательство. Заметим, чтодля независимых с.в. неравенство выполняется (с.м. теорему 12.1.). Итак, пусть с.в.X и Y зависимые. Рассмотрим стандартные с.в.
и
и вычислим дисперсию с.в.
с учётом свойства 3, имеем: с одной стороны
С другой стороны

Следовательно, с учётом того, что
и- нормированные (стандартизированные) с.в., то для них м.о. равна нулю, а дисперсия равна 1, поэтому, пользуясь свойством м.о.
получим

а следовательно, на основании того, что
получим

Отсюда следует, что т.е.

=

Утверждение доказано.

Из определения и свойства ковариации следует, что она характеризует и степень зависимости с.в., и их рассеяния вокруг точки
Размерность ковариации равна произведению размерностей случайных величинX иY . Другими словами, величина корреляционного момента зависит от единиц измерения случайных величин. По этой причине для одних и тех же двух величинX иY , величина корреляционного момента будет иметь различные значения в зависимости от того, в каких единицах были измерены величины.

Пусть, например, X и Y были измерены в сантиметрах и
; если измерить X иY в миллиметрах, то
Эта особенность корреляционного момента и есть недостатком этой числовой характеристики, так как сравнение корреляционных моментов различных систем случайных величин становится затруднительным.

Для того чтобы устранить этот недостаток, вводят новую числовую характеристику- - «коэффициент корреляции ».

Коэффициентом корреляции
случайных величин
иназывают отношение корреляционного момента к произведению средних квадратических отклонений этих величин:

(13)
.

Так как размерность
равна произведению размерностей величин
и,
имеет размерность величины
σ y имеет размерность величины, то
есть просто число (т.е. «безразмерная величина» ). Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения с.в., в этом состоитпреимущество коэффициента корреляции перед корреляционным моментом.

В Т.8. п.8.3 нами было введено понятие нормированной с.в.
, формула (18), и доказана теорема о том, что
и
(см. там же теорема 8.2.). Здесь докажем следующее утверждение.

Теорема 12.3. Длялюбых двух случайных величин
и справедливо равенство
.Другими словами, коэффициент корреляции
любых двух с
.в .X и Y равно корреляционному моменту их соответствующих нормированных с.в.
и .

Доказательство. По определениюнормированных случайных величин
и

и
.

Учитывая свойство математического ожидания: и равенство (40) получим

Утверждение доказано.

Рассмотрим некоторые часто встречающие свойства коэффициента корреляции.

Свойства коэффициента корреляции:

1. Коэффициент корреляции по абсолютной величине непревосходит 1, т.е.

Это свойство прямо следует из формулы (41) - определения коффициента корреляции и теоремы 13.5. (см. равенство (40)).

2. Если случайные величины
инезависимы, токоэффициент корреляции равен нулю, т.е.
.

Это свойство является прямым следствием равенства (40) и теоремы 13.4.

Следующее свойство сформулируем в виде отдельной теоремы.

Теорема 12.4.

Если с.в.
имежду собой связаны линейной функциональной зависимостью, т.е.
то

при этом

и наоборот, если
,
то с.в.
и между собой связаны линейной функциональной зависимостью, т.е. существуют постоянные
и
такие, что имеет место равенство

Доказательство. Пусть
тогда на основании свойства 4 ковариации, имеем

и поскольку, , поэтому

Следовательно,
. Равенство в одну сторону получено. Пусть далее,
, тогда

следует рассматривать два случая:1)
и 2)
Итак, рассмотрим первый случай. Тогда по определению
и следовательно из равенства
, где
. В нашем случае
, поэтому из равенства (см. доказательство теоремы 13.5.)

=
,

получаем, что
, значит
постоянна. Так как
и поскольку, то
действительно,

.

Следовательно,


.

Аналогично, показывается, что для
имеет место (проверьте самостоятельно!)

,
.

Некоторые выводы:

1. Если
инезависимыес.в., то

2. Если с.в.
имежду собой связаны линейно, то
.

3. В остальных случаях
:

В этом случае говорят, что с.в.
исвязаны между собойположительной корреляцией, если
в случаях же
отрицательной корреляцией . Чем ближе
к единице, тем больше оснований считать, чтос.в.
исвязаны линейной зависимостью.

Отметим, что корреляционные моменты и дисперсии системы с.в. обычно задаются корреляционной матрицей :

.

Очевидно, что определитель корреляционной матрицы удовлетворяет:

Как уже было отмечено, если две случайные величины зависимы, то они могут быть как коррелированными , так инекоррелированными. Другими словами, корреляционный момент двух зависимых величин может бытьне равен нулю , но может иравняться нулю.

Пример 1. Закон распределения дискретной с.в.задан таблицей


Найти коэффициент корреляции

Решение. Находим законы распределения составляющих
и:


Теперь вычислим м.о. составляющих:

Этих величин можно было находить на основании таблицы распределения с.в.

Аналогично,
находите самостоятельно.

Вычислим дисперсии составляющих при это будем пользоваться вычислительной формулой:

Составим закон распределения
, а затем найдём
:

При составлении таблицы закона распределения следует выполнять действия:

1) оставить лишь различные значения всевозможных произведений
.

2) для определения вероятности данного значения
, нужно

складывать все соответствующие вероятности, находящиеся на пересечении основной таблицы, благоприятствующие наступлению данного значения.

В нашем примере с.в.принимает всего три различных значения
. Здесь первое значение (
) соответствует произведению
из второй строки и
из первого столбца, поэтому на их пересечении находится вероятностное число
аналогично

которое получено из суммы вероятностей, находящихся на пересечениях соответственно первой строки и первого столбца (0,15 ; 0,40; 0,05) и одно значение
, которое находится на пересечении второй строки и второго столбца, и наконец,
, которое находится на пересечении второй строки и третьего столбца.

Из нашей таблицы находим:

Находим корреляционный момент, используя формулу (38):

Находим коэффициент корреляции по формуле (41)

Таким образом, отрицательная корреляция.

Упражнение. Закон распределения дискретной с.в. задан таблицей


Найти коэффициент корреляции

Рассмотрим пример, где окажется две зависимые случайные величины могут бытьнекоррелированными.

Пример 2. Двумерная случайная величина
)
задана функцией плотностью

Докажем, что
и зависимые , нонекоррелированные случайные величины.

Решение. Воспользуемся ранее вычисленными плотностями распределения составляющих
и :

Так как ,то
изависимые величины. Для того, чтобы доказать некоррелированность
и, достаточно убедиться в том, что

Найдем корреляционный момент по формуле:

Поскольку дифференциальная функция
симметрична относительно оси OY , то
аналогично
, в силу симметрии
относительно оси OX . Поэтому,

вынося постоянный множитель

Внутренний интеграл равен нулю (подынтегральная функция нечетна, пределы интегрирования симметричны относительно начала координат), следовательно,
, т.е. зависимые случайные величины
и между собой некоррелируют.

Итак, из коррелированности двух случайных величин следует их зависимость, но из некоррелированности ещё нельзя заключить о независимости этих величин.

Однако, для нормально распределённых с.в. такой вывод является исключением, т.е. из некоррелированности нормально распределенных с.в. вытекает их независимость .

Этому вопросу посвящается следующий пункт.

Определение:

Корреляционным моментом случайных величин и называют математическое ожидание произведения отклонений этих величин

Напомним, что приведенное выражение является элементом формулы дисперсии суммы двух случайных величин:

Замечание:

Корреляционный момент может быть представлен в виде:

Доказательство:

Теорема:

Корреляционный момент двух независимых случайных величин и равен 0

Доказательство:

Согласно замечанию:

Но для независимых случайных величин

Тогда для независимых случайных величин и :

Определение:

Безразмерная величина называется коэффициентом корреляции.

Теорема:

Абсолютная величина корреляционного момента двух случайных величин не превосходит произведения их средних квадратических отклонений:

Доказательство:

Введем в рассмотрение случайную величину и найдем ее дисперсию:

Так как любая дисперсия неотрицательная

Аналогично введем случайную величину и найдем, что:

Определение:

Случайные величины и называются некоррелированными, если , и коррелированными, если .

Теорема:

Коэффициент корреляции случайных величин, связанных линейной зависимостью, равен .

Доказательство:

Найдем коэффициент корреляции:

Отметим некоторые свойства коэффициента корреляции.

1. Из примера 1 следует, что если - независимые случайные величины, то коэффициент корреляции равен 0.

Заметим, что обратное утверждение неверно.

2. Абсолютная величина коэффициента корреляции в общем случае не превосходит единицы:

Доказательство следует из доказанной ранее формулы для корреляционного момента:

Разделим обе части неравенства на произведение и получим

3. Коэффициент корреляции характеризует относительную (в долях ) величину отклонения математического ожидания произведения от произведения математических ожиданий величин . Так как такое отклонение имеет место только для зависимых величин, то можно сказать, что коэффициент корреляции характеризует тесноту зависимости между и .



Это утверждение следует из доказанного ранее равенства: . Приведем корреляционный момент к коэффициенту корреляции:


Куликов А. А. Форекс для начинающих. Справочник биржевого спекулянта – СПб.: Питер, 2007; Коммерсантъ № 62 от 13.04.2007 – Мировая торговля замедлится.

Bachelier L. Theorie de la speculation. //Annales de l"Ecole Normale Superieure. 1900. V. 17. P. 21-86. Описание идей Л. Бушелье, их судьба и их современная критика содержатся в книгах: Мандельброт Б. Непослушные рынке, фрактальная революция в финансах – пер. с англ. – М.: Издательский дом «Вильямс», 2006; Сорнетте Д. Как предсказывать крахи финансовых рынков – пер. с франц. – М.: Издательство «И-трейд», 2008.

Cootner Paul H. The Random Character of Stock Market Prices – Cambridge, MA, MIT Press

Harry M. Markowitz, Portfolio Selection, Journal of Finance, 7, no 1 (March 1952), pp, 79-81.

В представленном разделе используются материалы следующих книг: Шарп У. Ф.., Александер Г. Дж., Бэйли Дж. В. Инвестиции – пер. с англ. – М.: ИНФРА-М, 1997; Бромвич М. Анализ экономической эффективности капиталовложений – пер. с англ. – М.: ИНФРА-М, 1996; Ширяев В. И. Модели финансовых рынков. Оптимальные портфели, управление финансами и рисками – Учебное пособие – М.: КомКнига, 2007; Шаповал А. Б. Инвестиции: математические методы – М.: ФОРУМ: ИНФРА-М, 2007; Коростелева М. В. Методы анализа рынка капитала – СПб.: Питер, 2003.

Тобин Дж. обратил внимание на недостаточность показателей математических ожиданий и дисперсии для сравнения портфелей (См. Ширяев В. И. Модели финансовых рынков… - стр. 18-19). Тем не менее, их применение оправдано своей конструктивностью.

См. Аскинадзи В. М. и др. Инвестиционное дело – Учебник - М.: Маркет ДС, 2007, стр. 238-241 или Ширяев В. И. Модели финансовых рынков. Оптимальные портфели, управление финансами и рисками – Учебное пособие – М.: КомКнига, 2007, стр. 17.

См. Бромвич М. Анализ экономической эффективности капиталовложений – пер. с англ. – М.: ИНФРА-М, 1996, стр. 343. Обсуждение альтернативных мер риска, например, приведение к нормальному типу так называемого логнормального распределения можно найти в книге: Шарп У. Ф.., Александер Г. Дж., Бэйли Дж. В. Инвестиции – пер. с англ. – М.: ИНФРА-М, 1997, стр. 179-181.

См. Бромвич М. Ук. Соч. стр. 342.

Считают, что первым шагом в создании теории полезности было формулирование так называемого Санкт-Петербургского парадокса. Любопытно, что сформулировал этот парадокс Николай Бернулли, а объяснение дал ему Даниил Бернулли - См.: Бернулли Д. Опыт новой теории измерения жребия / Д. Бернулли; пер. А. Нардовой // Вехи экономической мысли / сост. и общ. ред. В. М. Гальперина. Спб., 1993. Т. 1: Теория потребительского поведения и спроса. С. 11-27.

Полезные материалы по теории полезности можно найти в книгах, посвященных теории игр, в частности: Льюс Р.Д., Райфа Х. Игры и решения - Пер. с англ. - М.: Изд-во иностр. лит., 1961; Нейман фон Джон, Моргенштерн О. Теория игр и экономическое поведение - Пер. с англ. - М.: Наука, 1970.

См. Приложение к модели Г. Марковица

См. в книге Ширяева В. И. Модели финансовых рынков. Оптимальные портфели, управление финансами и рисками – М.: КомКнига, 2007, стр. 25-26.

Аналитическую формулировку модели Марковица можно найти в книгах: Шаповал А. Б. Инвестиции: математические методы – М.: ФОРУМ: ИНФРА-М, 2007, стр. 21-22; Аскинадзи В. М. и др. Инвестиционное дело – Учебник - М.: Маркет ДС, 2007, стр. 288.

Нами использованна формулировка, предложенная в книге: Аскинадзи В. М. и др. Инвестиционное дело – Учебник - М.: Маркет ДС, 2007, стр. 256-257.

См. в книге: Шаповал А. Б. Инвестиции: математические методы – М.: ФОРУМ: ИНФРА-М, 2007, стр. 16-18 (раздел «Модель Марковица»).

См.:Шарп У. Ук. соч. стр. 213-218, 226-228, стр. 271 – о связи и отличиях рыночной модели и модели САРМ; также Аскинадзи В. М. и др. Ук. соч., стр. 278-294; Ширяев В. В. Ук. соч., стр. 47-58

См.: Шарп У. Ф., Александер Г. Дж., Бэйли Дж. В. Инвестиции –пер. с англ. – М.: ИНФРА-М, 1997, стр 316-337.

См.: Оценка бизнеса – под ред. Грязновой А.Г., Федотовой М.А. – М.: Финансы и статистика, 2007, стр. 199

См: Шаповал А. Б. Инвестиции: математические методы – М.: ФОРУМ: ИНФРА-М, 2007, глава 3.

См. Мандельброт Б., Хадсон Р. Л. Непослушные рынки: фрактальная революция в финансах – пер. с англ. – М.: Издательский дом «Вильямс», 2006, 187 стр.

См. там же, стр. 34-39.

См.: Сорнетте Д. Как предсказывать крахи финансовых рынков – пер. с франц. – М.: Издательство «И-трейд», 2008, стр. 19-22.

Это раздел основан, главным образом, на материалах книги: Экономическая теория (New Palgraiv) – пер. с англ. – М.: ИНФРА-М, 2004, стр. 263-273 – глава Гипотеза эффективного рынка, автор - Бертон Мэлкил (Berton G, Malkiel). Ссылки на авторов различных исследований также сделаны по материалам этой статьи. См. также: Бертон Мэлкил «Случайная прогулка по Уолл-Стрит – пер. с англ. - Минск: Попурри, 2006. Последняя книга издается уже 30 лет. Любопытно, что в конце 90-х годов вышла иная книга: Эндрю Лоу. Неслучайная прогулка по Уолл-Стрит. Б. Мелкил является, в целом, сторонником гипотезы эффективного рынка, а Эндрю Лоу – наоборот.

См.: Чеботарев Ю.Н. Случайность и Неслучайность биржевых цен – М.: СмартБук; И-трейд, 2008, 198.

Инвариантность - неизменность какой-либо величины при изменении физических условий или по отношению к некоторым преобразованиям, например, преобразованиям координат и времени при переходе от одной инерциальной системы отсчета к другой (релятивистская инвариантность). Практически строгое описание «случайного блуждания» в наиболее простой версии «винеровского процесса» можно найти в книге: Шаповал А.Б. Инвестиции: математические методы – Учебное пособие – М.: ФОРУМ: ИНФРА-М, 2007, стр. 42-43.

Случайный процесс называется винеровским, если выполнены следующие условия:

1) Процесс начинается с нуля, то есть;

2) Случайная величина имеет нормальное распределение с нулевым математическим ожиданием и с дисперсией равной для любого момента времени;

3) Для произвольных непересекающихся интервалов и случайные величины и независимы.

Вообще, пособие Шаповала А.Б. мы рекомендуем для ознакомления с математическими моделями портфельного анализа, оценки опционов. Изложение достаточно строгое для практики и краткое (96 стр.), но вводит в современную теорию финансов. В главе о портфельном анализе мы в значительной мере используем

См. материал из Википедии:

Последовательность случайных величин называется мартингалов с дискретным временем, если:

Пусть дана другая последовательность случайных величин. Тогда последовательность случайных величин называется мартингалом относительно или -мартингалом, если:

Пусть дана последовательность случайных величин. Тогда последовательность случайных величин называется суб(супер) мартингалом относительно, если:

Этот эффект можно объяснить налоговым влиянием. В конце года инвесторы сбрасывают акции, в первую очередь, мелких фирм для имитации убыточности и облегчения налоговых платежей, цены акций падают, а в январе они могут вернуться даже с излишком вверх – См.: Бертон Мэлкил. Случайная прогулка по Уолл-Стрит, стр. 316-317.

Эффект уик-энда, эффект понедельника не имеет однозначного объяснения. Эффект говорит о том, что цены акций в понедельник ниже, чем вечером в пятницу. В книге «Случайная прогулка по Уолл-Стрит» Бертон Мэлкил уточняет эффект: цены акций утром в понедельник немного выше, чем вечером в пятницу, а к вечеру понедельника они понижаются, так что доходность становится относительно отрицательной. Поэтому следует покупать акции в понедельник вечером. Но проверка эффекта, проведенная автором по материалам Нью-Йоркской фондовой биржи с мая по июль 2002 года показала, что эффект проявился лишь в восьми уик-эндах из тринадцати.

Стратегию «купил и держи» реализуют так называемые «индексные фонды», которые держат структуру своих вложений в соответствии с популярными биржевыми индексами. По данным информационного портала «Вложи.ру», в России в 2007 году действовало 11 ПИФов как индексные фонды. Первый российский индексный фонд был образован в 2003 году. В США такие фонды действуют уже 30 лет. Российские фонды ориентируются на индексы ММВБ или РТС (после модификации в 2006 году индекс РТС стал учитывать и ликвидность бумаг, что требуется для правильной работы индексного фонда). Строго следовать индексам индексные фонды, конечно, не могут, так как было бы нерационально вносить изменения во вложения непрерывно. См. материалы об индексных фондах на портале частного инвестора «Вложи.ру»: http://www.vlozhi.ru/

Дробление акций снижает их номинальную стоимость, в результате чего она становится более доступной мелким акционерам. Расширение рынка акций может повысить к ним интерес и, соответственно, увеличить спрос на них, а значит, и рыночную стоимость акций

Эффективность взаимных фондов относительно эффективности индексных акций за 1980-1990 годы см.: Бертон Мэлкил. Случайная прогулка по Уолл-Стрит, стр. 238. В 80-е годы взаимные фонды обгоняли индекс S&P 500, в 90-е годы – отставали. Там же и другие современные материалы по эффективности взаимных фондов. Например, по данным с 1968 по 2002 годы проведено сопоставление доли наличности в активах взаимных фондов и индекса S&P 500. Сопоставление показало, что доля наличности в активах фондов была высока именно в те моменты, когда индекс был низок, то есть когда надо было, наоборот, тратить наличные деньги на покупку акций – стр. 244-248.

Результаты расчетов см.: Бертон Мэлкил. Случайная прогулка по Уолл-Стрит, стр. 235.

См. номера журнала «Финанс» за 2009-2010 годы.

См. Элдер А. Как играть и выигрывать на бирже: Психология. Технический анализ. Контроль над капиталом – М.: Альпина Бизнес Бук, 2007, стр. 29-35.

См.: Дамодаран А. Инвестиционные байки: разоблачение мифов о безпроигрышных биржевых стратегиях – пер. с англ. СПб.: Питер, 2007, стр. 396-428.

См.: Хэгстром Р. Дж. Инвестирование. Последнее свободное искусство – пер. с англ. – М.: ЗАО «Олимп-Бизнес», 2005.

Сравнение среднегодовой доходности и риска (квадратичного отклонения доходности) акций компаний крупных и мелких за период с 1926-2001 показало, что среднегодовая доходность акций мелких компаний – 17.5%, а крупных – 12.4 при риске 35.3 и 20.8%% соответственно. Среднеожидаемый ежемесячный доход за период 1963-1990 годы также показывает зависимость от размера компании. В то же время в 90-е годы ситуация изменилась, большие доходы стали давать компании с высокой капитализацией. Дело, по-видимому, в том, что выросла доля институциональных инвесторов, работающих с акциями крупных компаний, и акции мелкий компаний потеряли часть ликвидности – См. Бертон Мэлкил. Случайная прогулка по Уолл-Стрит, стр. 265, 333-334.

Данные за 80-е годы показывают, что акции с низким коэффициентом доходности (отношение цены акции к чистой прибыли компании) показывали более высокую доходность. Аналогично, акции с низким оотношением цены к стоимости активов фирмы дают обычно большую доходность – См. Бертон Мэлкил. Случайная прогулка по Уолл-Стрит, стр. 334-340.

Доказательства приведены по материалам книги: Бромвич Майкл. Анализ экономической эффективности капиталовложений – М.: ИНФРА-М, 1996.

См. Б.В. Гнеденко. Курс теории вероятности – М.: Наука, 1969, стр. 179 (глава 5. Числовые характеристики случайных величин)

Для характеристики корреляционной зависимости между вели­чинами используются коррекляционный момент и коэффициент корреляции.

О п р е д е л е н и е 2. Корреляционным моментом µ xy случайных ве­личин X и Y называют математическое ожидание произведения отклонений этих величин

Для вычисления корреляционного момента дискретных величин используется выражение

(3.12)

а для непрерывных – выражение

(3.13)

З а м е ч а н и е. Корреляционный момент µ xy может быть пере­писан в виде

(3.14)

Действительно, используя свойства математического ожидания (см. §§ 2.2; 2.6), имеем

Т е о р е м а. Корреляционный момент двух независимых случайных величин X и Y равен нулю.

Д о к а з а т е л ь с т в о. Согласно замечанию

а так как Х и Y независимые случайные величины, то (см. §§ 2.2; 2.6)

и, значит, µ xy =0.

Из определения корреляционного момента следует, что он имеет размерность, равную произведению размерностей величин X и Y,т.е. его величина зависит от единиц измерения случайных величин. Поэтому для одних и тех же двух величин величина корреляцион­ного момента может иметь различные значения в зависимости от того, в каких единицах были измерены величины. Для устранения этого недостатка условились за меру связи (зависимости) двух слу­чайных величин X и Yпринять безразмерную величину

где σ х =σ(Х), σ y =σ(Y), называемую коэффициентом корреляции.

П р и м е р 1. Пусть двумерная дискретная случайная величи­на (X,Y)задана законом распределения:

и, значит,

Сложив же вероятности по столбцам, найдем вероятности воз­можных значений Y:

Отсюда закон распределения Y:

Y
p 1\3 1\2 1\6

и, значит,

Следовательно,

Таким образом, коэффициент корреляции

Т е о р е м а. Абсолютная величина корреляционного момента двух случайных величин не превосходит произведения их средних квадратических отклонений:

Д о к а з а т е л ь с т в о. Введя в рассмотрение случайную величи­ну где найдем ее дисперсию. Имеем

(любая дисперсия неотрицательна). Отсюда

Введя случайную величину , аналогично найдем

В результате имеем

О п р е д е л е н и е 2. Случайные величины X и Y называются некоррелированными, если = 0, и коррелированными, если

П р и м е р 1. Независимые случайные величины Х и Y являются некоррелированными, так как в силу соотношения (3.12) = 0.

П р и м е р 2. Пусть случайные величины Х и Y связаны линей­ной зависимостью Найдем коэффициент корреля­ции. Имеем:

Таким образом, коэффициент корреляции случайных величин, свя­занных линейной зависимостью, равен ±1 (точнее, =1, если А>0 и =-1, если А<0).

Отметим некоторые свойства коэффициента корреляции.

Из примера 1 следует:

1) Если X и Y - независимые случайные величины, то коэффи­циент корреляции равен нулю.

Заметим, что обратное утверждение, вообще говоря, неверно. (Доказательство см. в работе .)

2)Абсолютная величина коэффициента корреляции не превосхо­дит единицы:

Действительно, разделив обе части неравенства (3.16) на произ­ведение , приходим к искомому неравенству.

3) Как видно из формулы (3.15) с учетом формулы (3.14), ко­эффициент корреляции характеризует относительную величину отклонения математического ожидания произведения от про­изведения математических ожиданий М(Х) М(Y) величин X и Y. Так как это отклонение имеет место только для зависимых вели­чин, то можно сказать, чтокоэффициент корреляции характеризует тесноту зависимости между X и Y.

3. Линейная корреляция. Этот вид корреляционной зависимости встречается довольно часто.

О п р е д е л е н и е. Корреляционная зависимость между случай­ными величинами Х и Y называется линейной корреляцией, если обе функции регрессии и являются линейными. В этом случае обе линии регрессии являются прямыми; их называют прямыми регрессии.

Выведем уравнения прямой регрессии Y на X, т.е. найдем коэф­фициент линейной функции

Обозначим М(Х) = а, М(Y) = b, М[(Х - а) 2 ] = , М[(Y –b 2)] = . С использованием свойств МО (§§ 2.2; 2.6) находим:

М(Y) = М = М(АХ + В)= АМ(Х) + В,

т.е. b = Аа + В, откуда В=b-Аа.

М(ХY) = М[Хg(Х)\ = М(АХ 2 + ВХ) = АМ(Х 2) + ВМ(Х) = АМ(Х 2) + (b- Аа)а,

или, согласно свойству 1 дисперсии (§§ 2.3; 2.6),

Полученный коэффициент называется коэффициентом регрессии Y на X и обозначается через :

Таким образом, уравнение прямой регрессии Y на X имеет вид

Аналогично можно получить уравнение прямой регрессии X на Y