Определение. Ковариацией случайных величин и , которые соответственно могут принимать значения и , называется интеграл
Если средние значения случайных величин отличны от нуля, то вычисления удобнее проводить, предварительно перейдя к центрированным случайным величинам. В этом случае пользуются понятием корреляции.
Определение. Корреляцией двух центрированных случайных величин () и () называется интеграл
Корреляция (или ковариация) двух случайных величин показывает степень линейной зависимости этих величин друг от друга. На практике, как правило, перед началом вычисления характеристик временных рядов производится процедура приведения временного ряда к нулевому среднему значению. При нулевых средних понятия ковариации и корреляции совпадают. С практической точки зрения отличие этих характеристик лишь в том, что ковариация содержит полную информацию о средней энергии процессаП1, тогда как корреляция теряет часть информации при удалении среднего значения.
Если в качестве случайных величин выбрать два значения одного процесса в различные моменты времени, то эти значения будут сильно коррелированы, когда моменты времени очень близки друг к другу, поскольку случайная величина не может за короткое время существенно измениться. Корреляция между двумя величинами в далеко отстоящие друг от друга моменты времени мала, так как за такое время случайные величины могут претерпевать практически любые изменения.
Для случайных процессов вводят понятия корреляционных и
ковариационных функций, аргументом которых в случае
стационарных СП является временной интервал , разделяющий два
выборочных значения случайных процессов. Если
случайные величины являются значениями одного и того же СП, например,
процесса , то указанная функция называется
автоковариационной (или просто ковариационной); она
рассчитывается по формуле:
и характеризует меру статистической зависимости значений и , сдвинутых относительно друг друга на интервал времени . Величина временного сдвига может быть как положительной, так и отрицательной, и меняется в пределах .
Аналогично автокорреляционная (или просто
корреляционная) функция СП имеет вид:
Если же случайные
величины принадлежат разным случайным процессам, например, и
, то функции называются взаимными
ковариационной и корреляционной, рассчитываются по формулам:
и характеризуют степень связанности (взаимозависимости) двух СП и в зависимости от временного сдвига .
В случае эргодических СП авто- и взаимные ковариационные и
корреляционные
функции можно вычислить по одной реализации случайного процесса
следующим образом:
Перечислим основные свойства авто- и взаимных ковариационных и корреляционных функций.
1. Ковариационная функция для значения равна среднему квадрату, или средней энергии случайного процессаП1: . Корреляционная функция при определяет дисперсию СП: .
2. Ковариационная и корреляционная функции являются четными относительно : , . Это означает, что можно рассчитывать функцию только для положительных , а результат для отрицательных значений определить на основании свойства симметрии.
3. Ковариационная и корреляционная функции для любых
не превосходят значений функций при
:
4. Если является периодическим СП (содержит периодическую составляющую), то и будут периодическими функциями с таким же периодом. Это свойство может быть распространено на случайные процессы, содержащие любое количество периодических составляющих. Можно сформулировать более общее утверждение: если каждая из реализаций СП является периодической функцией, то автоковариационная и автокорреляционная функции будут также периодическими.
5. Если СП не содержит периодических компонент, то
1. Для пары случайных процессов и можно построить две, в общем случае отличающиеся друг от друга взаимные ковариационные функции и , а также две взаимные корреляционные функции и , т.е. при вычислении взаимных функций важен порядок индексов.
2. Значения взаимных ковариационных и корреляционных функций при не имеют энергетической интерпретации, тем не менее, для них справедливы равенства: и .
3. Взаимные ковариационные и корреляционные функции не обязательно
должны иметь максимум при , но всегда выполняются следующие
соотношения:
4. Если два случайных процесса и статистически
независимы, то для любого интервала времени
выполняются равенства:
5. В общем случае взаимные ковариационные и корреляционные функции не являются четными относительно . Тем не менее, для них существует вид симметрии, описываемый соотношениями:
Укажем еще одно замечательное свойство
ковариационных функций, которое нам понадобится в
дальнейшем: ковариационная функция суммы СП равна сумме
ковариационных функций каждого СП плюс сумма
всех взаимных ковариационных функций:
Аналогичное свойство выполняется для корреляционных функций.
Примеры. На рис. 7 показаны вычисленные теоретически ковариационные функции процессов, с которыми часто приходится иметь дело на практике.
Ковариационные функции используются не только для характеристики степени статистической зависимости процессов, но также с целью выявления периодичностей, выделения сигнала из шума, измерения времен запаздывания и скоростей распространения сигналов, локализации источников помех. Приведем два примера.
Пример 1.
В качестве первого примера рассмотрим применение взаимных ковариационных
функций для выделения слабого сигнала на фоне сильных помех. Пусть на
вход некоторой системы подается два стационарных случайных процесса
и . Эти сигналы аддитивно смешиваются и образуют на входе
системы СП
Пусть -- гармонический сигнал со случайной начальной фазой (.1), а -- цветной шум (см. Приложение), статистически независимый от СП .
Рассчитаем автоковариационную функцию аддитивной смеси двух сигналов, применяя свойство (1.21)
Поскольку процессы и статистически независимы,
то их взаимные ковариационные функции равны нулю:
,
. Отсюда следует
Средние энергии CП и определяются соответственно выражениями (см. свойство 1 автоковариационной функции):
Видно, что для больших автоковариационная функция зависит, в основном, от величины сигнала, поскольку автоковариационная функция шума стремится к нулю при . Таким образом, если использовать подходящий метод измерения автоковариационной функции принимаемой смеси сигналов, возникает возможность выделять эти слабые синусоидальные сигналы.
Пример 2. В радиолокации расчет ковариационных функций можно использовать для определения расстояний до цели. Пусть с помощью радиолокационной системы передается сигнал . Принимаемый отраженный от цели сигнал представляет собой намного меньшую по энергии копию сигнала с задержкой , равной времени распространения до цели и обратно. Поскольку на входе радиолокационного приемника всегда присутствует шум, результирующее принимаемое сообщение можно представить следующим образом:
Взаимная ковариационная функция переданного сигнала и сигнала на входе
приемника равна:
Так как сигнал и шум статистически независимы, то и (1.23) преобразуется к виду: .
Поскольку максимум всех автоковариационных функций
приходится на начало отсчета времени (свойство 3, рис. 7), при
подстройке таким образом, чтобы измеряемое значение
стало максимальным, можно получить время , и это время определит расстояние до цели.
Для количественной оценки степени взаимосвязи между
значениями реализации удобнее рассматривать нормированные аналоги
ковариационных и корреляционных функций:
которые называются коэффициентами ковариации и
корреляции, соответственно. Аналогичные величины для взаимных
ковариационной и корреляционной функций называются коэффициентами
взаимной ковариации и взаимной корреляции, соответственно, и
определяются следующими выражениями:
Из рассмотренных выше свойств авто- и взаимных ковариационных и корреляционных функций следует, что коэффициенты (1.24)-(1.27) могут принимать значения от до . Тождественное равенство коэффициентов единице указывает на полное совпадение рассматриваемых процессов. Отрицательные значения коэффициентов указывают на противоположность знаков процессов. Этот вывод не всегда корректен для ковариационных функций, которые учитывают средние значения процессов и поэтому сдвигают нулевую отметку для коэффициентов ковариаций. По этой причине на практике используют, в основном, коэффициенты корреляции. Коэффициент взаимной корреляции принимает одно из граничных значений () только при наличии идеальной линейной связи между процессами. Нелинейная связь и (или) разброс данных, вызванный ошибками измерения или неполной коррелированностью процессов, приводит к уменьшению значения .