Задания для спецпрактикума "Анализ временных рядов" | Лабораторная работа No.5 | Главная К52 |
Теоретические сведения к лабораторной работе No. 5
практикума "Анализ временных рядов": Меры сложности. Расчет энтропии источника.
Энтропия источника
К настоящему времени в научной литературе предложен целый ряд различных энтропий. Среди них энтропия источника является одной из наиболее известных и общепринятых характеристик сложности символьных последовательностей. Прежде чем давать ее определение, рассмотрим некоторые предварительные сведения. Исторически понятие энтропии было введено Больцманом в термодинамике. В 40-х годах 20-го века концепция Больцмана была обобщена Шенноном на случай символьных последовательностей для того, чтобы иметь возможность охарактеризовать последовательность символов с точки зрения ее упорядоченности. Предположим, что мы рассматриваем символьную последовательность, составленную из алфавита, содержащего возможных символов. Предположим также для простоты, что все символы являются независимыми и равновероятными. В этом случае энтропия интерпретируется как информация о получении некоторого символа с вероятностью . Формула для энтропии записывается с учетом нескольких обстоятельств, а именно:
Следовательно, формула для должна иметь вид:
Если символы не являются равновероятными, то необходимо провести усреднение
по всем возможным символам, чтобы получить величину, которая
характеризует среднюю меру неопределенности о символе (сообщении) до его
приема:
Обычно логарифмы берутся по основанию . Что может сообщить энтропия о последовательности символов? Здесь нужно обратить внимание на одно обстоятельство. Меры сложности (и, в частности, энтропия) широко применяются при анализе структуры не только текстов и ''естественных'' символьных последовательностей (таких как цепочка нуклеотидов ДНК), но и временных рядов самого различного происхождения. Часто расчет энтропии проводится в целях получения количественной характеристики сложности изучаемого процесса; при этом используется символьное представление сигналов (в простейшем случае сигнал преобразуется в бинарный код). Например, если наблюдаемая переменная в данный момент времени принимает значение больше среднего, то в качестве очередного символа бинарного кода выбирается ``1'', если меньше среднего - ``0'' и т.п. Анализ последовательностей символов вместо временного ряда осуществляется в рамках так называемой символьной динамики. В данной работе для простоты мы ограничимся только рассмотрением случая бинарных кодов. Итак, пусть анализируется последовательность из ``0'' и ``1''; вероятности данных символов соответственно равны и . Если логарифм вычисляется по основанию 2, то энтропия будет принимать значения в интервале от 0 до 1. , если вероятности одинаковы ; , если постоянно генерируется только один символ ( или ). Энтропии в диапазоне от 0 до 1 характеризуют степень порядка в последовательности. Значения вблизи нуля указывают на то, что один символ доминирует, например, для и . Если же вероятности почти одинаковы, то значение близко к 1, например, для и .
Однако, рассматриваемое определение энтропии дает не так уж много полезной
информации. Например, принципиально различные процессы могут иметь одно и то
же значение энтропии. Рассмотрим две последовательности:
и Если в обоих случаях , то как для периодической (), так и для случайной последовательности ().
Данный недостаток можно устранить, если вычислять блочные энтропии
(или энтропии высокого порядка). Рассмотрим вначале вероятности встретить
различные блоки из 2-х символов: ``00'', ``01'', ``10'', ``11''. Если мы будем
анализировать вероятности данных блоков для последовательностей и
, то получатся различные величины. Можно ввести более общую
характеристику - -блочную энтропию:
которая определяет среднее количество информации, содержащееся в блоке из символов. Здесь - вероятности блоков из символов ( ), а суммирование проводится по всем встречающимся блокам. Если энтропии отдельных символов не позволяют получать много информации об особенностях анализируемых последовательностей, то блочные энтропии служат более информативными характеристиками структуры последовательностей символов. В частных случаях может наблюдаться характерное поведение для блочных энтропий:
Символьные последовательности, несущие какую-либо полезную информацию, должны
находиться между случаем полной неупорядоченности и периодическими
последовательностями. Для них приращения уменьшаются при
возрастании , что является следствием эффектов ``длительной
памяти''. Чтобы охарактеризовать приращения блочных энтропий, рассматривают
так называемые разностные блочные энтропии (называемые также динамическими
энтропиями):
Их можно интерпретировать как среднюю неопределенность о символе, если известны предшествующих символов. Поскольку чем больше символов мы знаем, тем меньше неопределенность о сообщении (в среднем), то значения монотонно уменьшаются. Предел называется энтропией источника. принимает максимальное значение () для полностью случайного процесса (белого шума) и минимальное () для периодических процессов. Для последовательностей, несущих полезную информацию, .
При практических вычислениях блочных энтропий и энтропии источника нужно
обращать внимание на возможность достоверной оценки вероятностей различных
блоков. На практике их определяют как относительную частоту появления того
или иного блока:
где - число блоков, - число появлений интересующего нас блока. При работе с конечными последовательностями символов оценки вероятностей больших блоков будут очень неточными из-за сильно возрастающего числа вариантов всевозможных блоков. В этом случае возникают недостоверные оценки энтропий, например, при (в случае последовательности из 10000 символов), либо (в случае 100000 символов). На практике предел является бессмысленным, и реально можно оценивать блочные энтропии для относительно небольших (причем, эти оценки будут давать весьма ценную информацию об особенностях сложной структуры последовательности символов или исходного временного ряда).
Энтропию источника иногда определяют другим способом (без расчета
блочных энтропий). В качестве примера рассмотрим определение сложности
Лемпеля-Зива. Идея предложенного ими алгоритма состоит в следующем.
Последовательность символов разбивается на фрагменты, и метками отмечаются
фрагменты, которые ранее еще не были идентифицированы. Например, пусть есть
последовательность и мы определяем различные фрагменты:
. Число полученных таким способом фрагментов
может служить мерой сложности. Естественно, что в общем случае
будет увеличиваться с ростом числа символов последовательности. Для
случайных бинарных кодов () с ростом наблюдается
следующее поведение для числа фрагментов:
Для не совсем случайных последовательностей где - энтропия источника. Чтобы характеристика сложности не зависела от , проводят нормировку на значение . В этом случае подход Лемпеля-Зива позволяет непосредственно оценивать значение . Возможность разбить последовательность символов на участки по определенным правилам имеет важное значение в задачах сжатия данных. Одним из потенциальных приложений задач об исследовании мер сложности является создание алгоритмов оптимального архивирования данных. В частности, подход Лемпеля-Зива реализован в известной программе ``gzip''.
|