Диагональные элементы ковариационной матрицы являются дисперсиями доходностей акций

Как работает метод главных компонент (PCA) на простом примере

В этой статье я бы хотел рассказать о том, как именно работает метод анализа главных компонент (PCA – principal component analysis) с точки зрения интуиции, стоящей за ее математическим аппаратом. Максимально просто, но подробно.

Математика вообще очень красивая и изящная наука, но порой ее красота скрывается за кучей слоев абстракции. Показать эту красоту лучше всего на простых примерах, которые, так сказать, можно покрутить, поиграть и пощупать, потому что в конце концов все оказывается гораздо проще, чем кажется на первый взгляд – самое главное понять и представить.

В анализе данных, как и в любом другом анализе, порой бывает нелишним создать упрощенную модель, максимально точно описывающую реальное положение дел. Часто бывает так, что признаки довольно сильно зависят друг от друга и их одновременное наличие избыточно.

К примеру, расход топлива у нас меряется в литрах на 100 км, а в США в милях на галлон. На первый взгляд, величины разные, но на самом деле они строго зависят друг от друга. В миле 1600м, а в галлоне 3.8л. Один признак строго зависит от другого, зная один, знаем и другой.

Но гораздо чаще бывает так, что признаки зависят друг от друга не так строго и (что важно!) не так явно. Объем двигателя в целом положительно влияет на разгон до 100 км/ч, но это верно не всегда. А еще может оказаться, что с учетом не видимых на первый взгляд факторов (типа улучшения качества топлива, использования более легких материалов и прочих современных достижений), год автомобиля не сильно, но тоже влияет на его разгон.

Зная зависимости и их силу, мы можем выразить несколько признаков через один, слить воедино, так сказать, и работать уже с более простой моделью. Конечно, избежать потерь информации, скорее всего не удастся, но минимизировать ее нам поможет как раз метод PCA.

Выражаясь более строго, данный метод аппроксимирует n-размерное облако наблюдений до эллипсоида (тоже n-мерного), полуоси которого и будут являться будущими главными компонентами. И при проекции на такие оси (снижении размерности) сохраняется наибольшее количество информации.

Шаг 1. Подготовка данных

Здесь для простоты примера я не буду брать реальные обучающие датасеты на десятки признаков и сотни наблюдений, а сделаю свой, максимально простой игрушечный пример. 2 признака и 10 наблюдений будет вполне достаточно для описания того, что, а главное – зачем, происходит в недрах алгоритма.

В данной выборке у нас имеются два признака, сильно коррелирующие друг с другом. С помощью алгоритма PCA мы сможем легко найти признак-комбинацию и, ценой части информации, выразить оба этих признака одним новым. Итак, давайте разбираться!

Для начала немного статистики. Вспомним, что для описания случайной величины используются моменты. Нужные нам – мат. ожидание и дисперсия. Можно сказать, что мат. ожидание – это «центр тяжести» величины, а дисперсия – это ее «размеры». Грубо говоря, мат. ожидание задает положение случайной величины, а дисперсия – ее размер (точнее, разброс).

Сам процесс проецирования на вектор никак не влияет на значения средних, так как для минимизации потерь информации наш вектор должен проходить через центр нашей выборки. Поэтому нет ничего страшного, если мы отцентрируем нашу выборку – линейно сдвинем ее так, чтобы средние значения признаков были равны 0. Это очень сильно упростит наши дальнейшие вычисления (хотя, стоит отметить, что можно обойтись и без центрирования).
Оператор, обратный сдвигу будет равен вектору изначальных средних значений – он понадобится для восстановления выборки в исходной размерности.


Дисперсия же сильно зависит от порядков значений случайной величины, т.е. чувствительна к масштабированию. Поэтому если единицы измерения признаков сильно различаются своими порядками, крайне рекомендуется стандартизировать их. В нашем случае значения не сильно разнятся в порядках, так что для простоты примера мы не будем выполнять эту операцию.

Шаг 2. Ковариационная матрица

В случае с многомерной случайной величиной (случайным вектором) положение центра все так же будет являться мат. ожиданиями ее проекций на оси. А вот для описания ее формы уже недостаточно толькое ее дисперсий по осям. Посмотрите на эти графики, у всех трех случайных величин одинаковые мат.ожидания и дисперсии, а их проекции на оси в целом окажутся одинаковы!

Для описания формы случайного вектора необходима ковариационная матрица.

Это матрица, у которой (i,j)-элемент является корреляцией признаков (Xi, Xj). Вспомним формулу ковариации:

В нашем случае она упрощается, так как

и это справедливо для любых случайных величин.

Таким образом, в нашей матрице по диагонали будут дисперсии признаков (т.к. i = j), а в остальных ячейках – ковариации соответствующих пар признаков. А в силу симметричности ковариации матрица тоже будет симметрична.

Замечание: Ковариационная матрица является обобщением дисперсии на случай многомерных случайных величин – она так же описывает форму (разброс) случайной величины, как и дисперсия.

И действительно, дисперсия одномерной случайной величины – это ковариационная матрица размера 1×1, в которой ее единственный член задан формулой Cov(X,X) = Var(X).

Итак, сформируем ковариационную матрицу Σ для нашей выборки. Для этого посчитаем дисперсии Xi и Xj, а также их ковариацию. Можно воспользоваться вышенаписанной формулой, но раз уж мы вооружились Python’ом, то грех не воспользоваться функцией numpy.cov(X). Она принимает на вход список всех признаков случайной величины и возвращает ее ковариационную матрицу и где X – n-мерный случайный вектор (n-количество строк). Функция отлично подходит и для расчета несмещенной дисперсии, и для ковариации двух величин, и для составления ковариационной матрицы.
(Напомню, что в Python матрица представляется массивом-столбцом массивов-строк.)

Читайте также:  время жизни ивана грозного

Шаг 3. Собственные вектора и значения (айгенпары)

О’кей, мы получили матрицу, описывающую форму нашей случайной величины, из которой мы можем получить ее размеры по x и y (т.е. X1 и X2), а также примерную форму на плоскости. Теперь надо найти такой вектор (в нашем случае только один), при котором максимизировался бы размер (дисперсия) проекции нашей выборки на него.

Замечание: Обобщение дисперсии на высшие размерности — ковариационная матрица, и эти два понятия эквивалентны. При проекции на вектор максимизируется дисперсия проекции, при проекции на пространства больших порядков – вся ее ковариационная матрица.

Итак, возьмем единичный вектор на который будем проецировать наш случайный вектор X. Тогда проекция на него будет равна v T X. Дисперсия проекции на вектор будет соответственно равна Var(v T X). В общем виде в векторной форме (для центрированных величин) дисперсия выражается так:

Соответственно, дисперсия проекции:

Легко заметить, что дисперсия максимизируется при максимальном значении v T Σv. Здесь нам поможет отношение Рэлея. Не вдаваясь слишком глубоко в математику, просто скажу, что у отношения Рэлея есть специальный случай для ковариационных матриц:

Последняя формула должна быть знакома по теме разложения матрицы на собственные вектора и значения. x является собственным вектором, а λ – собственным значением. Количество собственных векторов и значений равны размеру матрицы (и значения могут повторяться).

Кстати, в английском языке собственные значения и векторы именуются eigenvalues и eigenvectors соответственно.
Мне кажется, это звучит намного более красиво (и кратко), чем наши термины.

Таким образом, направление максимальной дисперсии у проекции всегда совпадает с айгенвектором, имеющим максимальное собственное значение, равное величине этой дисперсии.

И это справедливо также для проекций на большее количество измерений – дисперсия (ковариационная матрица) проекции на m-мерное пространство будет максимальна в направлении m айгенвекторов, имеющих максимальные собственные значения.

Размерность нашей выборки равна двум и количество айгенвекторов у нее, соответственно, 2. Найдем их.

В библиотеке numpy реализована функция numpy.linalg.eig(X), где X – квадратная матрица. Она возвращает 2 массива – массив айгензначений и массив айгенвекторов (векторы-столбцы). И векторы нормированы — их длина равна 1. Как раз то, что надо. Эти 2 вектора задают новый базис для выборки, такой что его оси совпадают с полуосями аппроксимирующего эллипса нашей выборки.


На этом графике мы апроксимировали нашу выборку эллипсом с радиусами в 2 сигмы (т.е. он должен содержать в себе 95% всех наблюдений – что в принципе мы здесь и наблюдаем). Я инвертировал больший вектор (функция eig(X) направляла его в обратную сторону) – нам важно направление, а не ориентация вектора.

Шаг 4. Снижение размерности (проекция)

Наибольший вектор имеет направление, схожее с линией регрессии и, спроецировав на него нашу выборку, мы потеряем информацию, сравнимую с суммой остаточных членов регрессии (только расстояние теперь евклидово, а не дельта по Y). В нашем случае зависимость между признаками очень сильная, так что потеря информации будет минимальна. «Цена» проекции — дисперсия по меньшему айгенвектору — как видно из предыдущего графика, очень невелика.

Замечание: диагональные элементы ковариационной матрицы показывают дисперсии по изначальному базису, а ее собственные значения – по новому (по главным компонентам).

Часто требуется оценить объем потерянной (и сохраненной) информации. Удобнее всего представить в процентах. Мы берем дисперсии по каждой из осей и делим на общую сумму дисперсий по осям (т.е. сумму всех собственных чисел ковариационной матрицы).
Таким образом, наш больший вектор описывает 45.994 / 46.431 * 100% = 99.06%, а меньший, соответственно, примерно 0.94%. Отбросив меньший вектор и спроецировав данные на больший, мы потеряем меньше 1% информации! Отличный результат!

Замечание: На практике, в большинстве случаев, если суммарная потеря информации составляет не более 10-20%, то можно спокойно снижать размерность.

dot(X,Y) — почленное произведение (так мы перемножаем векторы и матрицы в Python)

Нетрудно заметить, что значения проекций соответствуют картине на предыдущем графике.

Шаг 5. Восстановление данных

С проекцией удобно работать, строить на ее основе гипотезы и разрабатывать модели. Но не всегда полученные главные компоненты будут иметь явный, понятный постороннему человеку, смысл. Иногда полезно раскодировать, к примеру, обнаруженные выбросы, чтобы посмотреть, что за наблюдения за ними стоят.

Это очень просто. У нас есть вся необходимая информация, а именно координаты базисных векторов в исходном базисе (векторы, на которые мы проецировали) и вектор средних (для отмены центровки). Возьмем, к примеру, наибольшее значение: 10.596… и раскодируем его. Для этого умножим его справа на транспонированный вектор и прибавим вектор средних, или в общем виде для всей выборки: X T v T +m

Разница небольшая, но она есть. Ведь потерянная информация не восстанавливается. Тем не менее, если простота важнее точности, восстановленное значение отлично аппроксимирует исходное.

Вместо заключения – проверка алгоритма

Итак, мы разобрали алгоритм, показали как он работает на игрушечном примере, теперь осталось только сравнить его с PCA, реализованным в sklearn – ведь пользоваться будем именно им.

Параметр n_components указывает на количество измерений, на которые будет производиться проекция, то есть до скольки измерений мы хотим снизить наш датасет. Другими словами – это n айгенвекторов с самыми большими собственными числами. Проверим результат снижения размерности:

Мы возвращали результат как матрицу вектор-столбцов наблюдений (это более канонический вид с точки зрения линейной алгебры), PCA в sklearn же возвращает вертикальный массив.

Читайте также:  дэниел крейг личная жизнь голубой или нет

В принципе, это не критично, просто стоит отметить, что в линейной алгебре канонично записывать матрицы через вектор-столбцы, а в анализе данных (и прочих связанных с БД областях) наблюдения (транзакции, записи) обычно записываются строками.

Проверим и прочие параметры модели – функция имеет ряд атрибутов, позволяющих получить доступ к промежуточным переменным:

— Вектор средних: mean_
— Вектор(матрица) проекции: components_
— Дисперсии осей проекции (выборочная): explained_variance_
— Доля информации (доля от общей дисперсии): explained_variance_ratio_

Замечание: explained_variance_ показывает выборочную дисперсию, тогда как функция cov() для построения ковариационной матрицы рассчитывает несмещенные дисперсии!

Сравним полученные нами значения со значениями библиотечной функции.

Единственное различие – в дисперсиях, но как уже упоминалось, мы использовали функцию cov(), которая использует несмещенную дисперсию, тогда как атрибут explained_variance_ возвращает выборочную. Они отличаются только тем, что первая для получения мат.ожидания делит на (n-1), а вторая – на n. Легко проверить, что 45.99 ∙ (10 — 1) / 10 = 41.39.

Все остальные значения совпадают, что означает, что наши алгоритмы эквивалентны. И напоследок замечу, что атрибуты библиотечного алгоритма имеют меньшую точность, поскольку он наверняка оптимизирован под быстродействие, либо просто для удобства округляет значения (либо у меня какие-то глюки).

Замечание: библиотечный метод автоматически проецирует на оси, максимизирующие дисперсию. Это не всегда рационально. К примеру, на данном рисунке неаккуратное снижение размерности приведет к тому, что классификация станет невозможна. Тем не менее, проекция на меньший вектор успешно снизит размерность и сохранит классификатор.

Итак, мы рассмотрели принципы работы алгоритма PCA и его реализации в sklearn. Я надеюсь, эта статья была достаточно понятна тем, кто только начинает знакомство с анализом данных, а также хоть немного информативна для тех, кто хорошо знает данный алгоритм. Интуитивное представление крайне полезно для понимания того, как работает метод, а понимание очень важно для правильной настройки выбранной модели. Спасибо за внимание!

Источник

Современная теория инвестиционного портфеля часто использует идею о том, что инвестиционные возможности можно оценить с использованием ожидаемой доходности в качестве меры вознаграждения и дисперсии доходности в качестве меры риска.

Расчет и интерпретация ожидаемой доходности и дисперсии доходности портфеля являются фундаментальными навыками финансового аналитика. В этом разделе мы рассмотрим концепции ожидаемой доходности портфеля и дисперсии доходности.

Хотя в этом разделе мы коснемся ряда основных понятий, мы не будем разбирать портфельную теорию как таковую. Портфельная теория Марковица (англ. ‘mean-variance analysis’) будет рассматриваться в следующих чтениях.

Доходность портфеля определяется доходностью отдельных его составляющих. В результате расчет дисперсии портфеля как функция доходности отдельного актива является более сложным, чем расчет дисперсии, проиллюстрированный в предыдущем разделе.

Рассмотрим пример портфеля,

Таблица 5 показывает это распределение.

Таблица 5. Портфельные веса.

Долгосрочные корпоративные облигации США

Сначала рассмотрим расчет ожидаемой доходности портфеля. В предыдущем разделе мы определили ожидаемое значение случайной величины как средневзвешенную вероятность возможных результатов случайной величины.

Когда мы оценили ожидаемую доходность отдельных ценных бумаг, мы сразу же получили ожидаемую доходность портфеля. Этот удобный факт вытекает из свойств ожидаемого значения.

Свойства ожидаемого значения.

1. Ожидаемое значение постоянной величины, умноженной на случайную величину, равно постоянной, умноженной на ожидаемое значение случайной величины.

2. Ожидаемое значение взвешенной суммы случайных величин равно взвешенной сумме ожидаемых значений с использованием тех же весов.

Предположим, у нас есть случайная величина с заданным ожидаемым значением. Например, если мы умножим каждый результат на 2, ожидаемое значение случайной величины умножится также на 2. В этом смысл части 1.

Портфель с n ценными бумагами определяется весами его портфеля, \( w_1, w_2, \ldots, w_n \), которые в сумме составляют 1. Таким образом, доходность портфеля, \( R_p \), равна \( R_p = w_1R_1 + w_2R_2 + \ldots + w_nR_n \).

Теперь мы можем сформулировать следующий принцип:

Расчет ожидаемой доходности портфеля.

Для портфеля с n ценными бумагами ожидаемая доходность портфеля представляет собой средневзвешенную ожидаемую доходность по включенным в него ценным бумагам:

\( \begin E(R_p) &= E(w_1R_1 + w_2R_2 + \ldots + w_nR_n) \\ &= w_1E(R_1) + w_2E(R_2) + \ldots + w_nE (R_n) \end \)

Предположим, мы оценили ожидаемую доходность активов в портфеле, как показано в Таблице 6.

Таблица 6. Веса и ожидаемая доходность активов в портфеле.

Долгосрочные корпоративные облигации США

Мы рассчитываем ожидаемую доходность портфеля как 11.75%:

\( \begin E(R_p) &= w_1E(R_1) + w_2E(R_2) + w_3E (R_3) \\ &= 0.50(13\%) + 0.25(6\%) + 0.25(15\%) = 11.75\% \end \)

В предыдущем разделе мы изучали дисперсию как меру рассеивания результатов вокруг ожидаемого значения. Здесь нас интересует дисперсия доходности портфеля как мера инвестиционного риска.

Как можно использовать это определение на практике?

В чтении о статистических концепциях и рыночной доходности мы узнали, как рассчитать историческую или выборочную дисперсию на основе выборки ставок доходности.

Теперь мы рассматриваем дисперсию в прогностическом смысле. Мы будем использовать информацию об отдельных активах в портфеле, чтобы получить доходность всего портфеля.

Чтобы избежать беспорядка в обозначениях, мы пишем \( ER_p \) вместо \(E(R_p)\). Нам нужна концепция ковариации.

Определение ковариации.

Для двух случайных величин \(R_i\) и \(R_j\) ковариация между \(R_i\) и \(R_j\) равна

(Формула 14)

Альтернативными обозначениями являются \(\sigma(R_i,R_j)\) и \(\sigma_\).

Формула 14 утверждает, что ковариация (англ. ‘covariance’) между двумя случайными переменными является средневзвешенной вероятностью для перекрестных произведений отклонения каждой случайной переменной от ее собственного ожидаемого значения.

Используя определением дисперсии, мы находим:

(напомим, что \(w_i\) являются постоянными величинами)

\( \begin &= w^2_1 \sigma^2 (R_1) + w_1w_2 \textrm (R_1, R_2) + w_1w_3 \textrm (R_1, R_3) \\ &+ w_1w_2 Cov(R_1, R_2) + w^2_2 \sigma^2 (R_2) + w_2w_3 \textrm (R_2, R_3) \\ &+ w_1w_3 Cov(R_1, R_3) + w_2w_3 Cov(R_2, R_3) + w^2_3 \sigma^2 (R_3) \end \)
(формула 15)

Последний шаг следует из определений дисперсии и ковариации.

Полезные факты о дисперсии и ковариации включают в себя следующее:

Для выделенных курсивом ковариационных членов в Формуле 15 мы использовали тот факт, что порядок переменных в ковариации не имеет значения: например, \(\textrm(R_2,R_1) = \textrm(R_1,R_2) \).

Как мы покажем далее, диагональные дисперсионные члены \(\sigma^2(R_1)\), \(\sigma^2(R2)\) и \(\sigma^2(R_3)\) могут быть выражены как \(\textrm(R_1,R_1)\), \(\textrm(R_2,R_2)\) и \(\textrm(R_3,R_3)\), соответственно.

Опираясь на этот факт, можно вывести наиболее компактный вид Формулы 15:

\( \sigma^2(R_p) = \sum_^ <3>\sum_^<3>w_i w_j \textrm(R_i,R_j) \)

Знаки суммирования говорят: «Установите i = 1, и пусть j меняется от 1 до 3; затем установите i = 2 и пусть j меняется от 1 до 3; затем установите i = 3 и пусть j меняется от 1 до 3; наконец, добавьте девять членов».

Эту формулу можно использовать для портфеля любого размера n:

\( \sigma^2(R_p) = \sum_^ <3>\sum_^<3>w_i w_j \textrm(R_i,R_j) \)
(Формула 16)

Из Формулы 15 видно, что отдельные отклонения доходности составляют часть, но не все отклонения портфеля. Три отклонения фактически превосходят по численности шесть ковариационных членов вне диагонали. Для трех активов это соотношение составляет 1 к 2 или 50 процентов.

Когда значение ковариации как «недиагональной ковариации» очевидно, как здесь, мы опускаем уточняющие слова. Ковариация обычно используется в этом смысле.

Как именно влияет ковариация на дисперсию доходности портфеля?

Члены ковариации показывают, как совместное движение доходности отдельных активов влияет на дисперсию всего портфеля.

Например, рассмотрим две акции: одна имеет тенденцию к высокой доходности (относительно ее ожидаемой доходности), а другая имеет низкую доходность (относительно ее ожидаемой доходности).

Доходность одной акции имеет тенденцию компенсировать доходность другой акции, снижая изменчивость или дисперсию доходности портфеля.

Как и дисперсию, значения ковариации трудно интерпретировать, и мы вскоре представим более интуитивно понятную концепцию. Между тем, из определения ковариации мы можем установить два существенных примечания о ковариации.

1. Мы можем интерпретировать ковариацию следующим образом:

Полный список ковариаций составляет все статистические данные, необходимые для расчета дисперсии доходности портфеля. Ковариации часто представлены в табличном формате, который называется ковариационной матрицей (англ. ‘covariance matrix’).

В Таблице 7 показано, как вводятся расчетные значения в ковариационную матрицу для ожидаемой доходности и дисперсии доходности портфеля.

Для трех активов ковариационная матрица имеет \(3^2 = 3 \times 3 = 9 \) ячеек, но значения ячеек по диагонали (дисперсия) обычно рассчитываются отдельно от недиагональных ячеек. Эти диагональные значения выделены жирным шрифтом в Таблице 7.

Но \(\textrm(R_B,R_A) = \textrm(R_А,R_В)\), \( \textrm(R_С,R_A) = \textrm(R_B,R_A) \) и \( \textrm(R_С,R_B) = \textrm(R_B,R_C) \).

Предположим, у нас есть ковариационная матрица, показанная в Таблице 8.

Мы будем работать с доходностью, указанной в процентах, а записи в таблице будут выражены в процентах в квадрате (% 2 ). Члены 38% 2 и 400% 2 равны 0.0038 и 0.0400 соответственно в десятичном виде; правильная работа в процентах и ​​десятичных дробях приводит к одинаковым ответам.

Таблица 8. Ковариационная матрица.

Долгосрочные корпоративные облигации США

Долгосрочные корпоративные облигации США

Если взять Формулу 15 и сгруппировать дисперсионные члены, мы получим следующее:

\( \begin \sigma^2(R_p) &= w_1^2 \sigma^2(R_2) + w_2^2 \sigma^2(R_2) + w_3^2 \sigma^2(R_3) + 2w_1w_2 \textrm(R_1,R_2) \\ &+ 2w_1w_3 \textrm(R_1,R_3) + 2w_2w_3 \textrm(R_2,R_3) \end \)
(Формула 17)

\( \begin &= (0.50)^2(400) + (0.25)^2(81) + (0.25)^2(441) \\ &+ 2(0.50)(0.25)(45) + 2(0.50)(0.25)(189) \\ &+ 2(0.25)(0.25)(38) \\ &= 100 + 5.0625 + 27.5625 + 11.25 + 47.25 + 4.75 = 195.875 \end \)

Давайте посмотрим на первые три члена в приведенном выше расчете. Их сумма, 100 + 5.0625 + 27.5625 = 132.625, является вкладом отдельных дисперсий активов в общую дисперсию портфеля. Если бы доходность по трем активам была независимой, ковариации были бы равны 0, а стандартное отклонение доходности портфеля составило бы 132.625 1/2 = 11.52% по сравнению с 14% ранее.

Портфель будет иметь меньший риск. Предположим, что члены ковариации были отрицательными. Тогда к 132.625 будет добавлено отрицательное число, поэтому дисперсия портфеля и риск будут еще меньше.

В то же время мы не изменили ожидаемую доходность. При той же ожидаемой доходности портфеля, портфель имеет меньший риск. Это снижение риска является преимуществом диверсификации, что означает снижение риска от владения портфелем активов.

Преимущество диверсификации увеличивается с уменьшением ковариации.

Это наблюдение является ключевым понятием современной теории портфеля. Это станет еще более интуитивно понятно, когда мы рассмотрим концепцию корреляции. Тогда мы сможем сказать, что до тех пор, пока ставки доходности акций портфеля не имеют абсолютно положительной корреляции, возможны преимущества диверсификации.

Кроме того, чем меньше корреляция между доходностью акций, тем выше стоимость отказа от диверсификации (с точки зрения упущенных выгод от снижения риска), при прочих равных условиях.

Определение корреляции.

Корреляция (англ. ‘correlation’) между двумя случайными величинами, \(R_i\) и \(R_j\), определяется как:

\( \rho(R_i,R_j) = \ <\mathrm(R_i, R_j) \over \sigma(R_i)\sigma(R_j)> \).

Альтернативными обозначениями корреляции являются \(\textrm(R_i,R_j) \) и \( \rho_\).

Ковариация часто представляется с использованием выражения:

\( \textrm(R_i, R_j) = \rho(R_i,R_j) \sigma(R_i)\sigma(R_j) \)

Деление, указанное в определении, делает корреляцию чистым числом (т.е. без единицы измерения) и устанавливает границы для ее наибольшего и наименьшего возможных значений.

Используя приведенное выше определение, мы можем сформулировать корреляционную матрицу только на основе данных из ковариационной матрицы. В Таблице 9 показана матрица корреляции.

Источник

Читайте также:  жизнь без фильтров это
Развивающий портал