Пятница, 17.05.2024
My homepage
Менюшка
Мини-чат
Наш опрос
Оцените мой сайт
Всего ответов: 30

10. Структурные меры информации: геометрическая, комбинаторная и мера Хартли. Примеры структурной оценки информации.

Меры информации: Структурные, статистические, семантические.

Структурная мера позволяет учитывать дискретное строение информационного комплекса.

Структурные меры информации: - геометрическая, комбинаторная, мера Хартли (аддитивная). – рассматривает дискретное строение источника информации.

Геометрическая мера – определяет потенциальное количество информации в заданном комплексе.

Информационный элемент – неделимая часть или квант информации в дискретных моделях, в реальных комплексах, а также элементы алфавита и числовых систем.

Информационная емкость – вычисляется как сумма по всем измерениям. Выражается числом, которое показывает, какое количество информации содержится в полном массиве информации.

Q=(x - величина, T – время, N - пространство)

Макс. значения по осям – X, T, N.

Интервал квантования или измерения – dX, dT, dN.

Мощности источника – MX = X/dX; MT = T/dT; MN = N/dN.

Полная мощность комлекса – M = MX*MT*MN.

I = logM=logMX+logMT+logMN = IX+IT+IN.

Комбинаторная мера выражается в количестве элементов, в количественных связях между ними, комбинациями из них.

К комбинаторной мере прибегают тогда, когда требуется оценить возможность передачи информации различными способами.

Комбинаторика – одна из форм кодирования информации.

Количество информации, которое измеряется с помощью комбинаторной меры, вычисляется количеством различных комбинаций.

Комбинирование возможно только при наличии нескольких элементов и переменной связи, а также множества разнообразных позиций.

Элементы неодинаковые – отличаются друг от друга любым признаком.

Одинаковые элементы могут стать неодинаковыми, если учесть их позицию или местоположение.

Комбинации – сочетания, размещения, перестановки с повторениями и без.

В комбинаторной мере возможное кол-во информации совпадает с числом возможных соединений, следовательно, определение кол-ва информации в К,М заключается не в простом подсчете квантов, а в определеннии кол-ва взаимных или действительно осуществимых комбинаций, т.е. в оценке структурно разнообразного информационного комплекса. В этом случае кол-во информации, по сравнению с геометрической многократно увеличывается.

Для аддитивной меры Хартли имеет важность длина и глубина числа. Глубина числа определяется количеством элементов или знаков, которое содержится в исходном алфавите. Соответствует основанию СС.

Q=h^l, h – глубина, l – длина числа.

Q’=log(h^l)=l*log(h) – 1928 год.

Мера Хартли, выраженная в битах, соответствует элементарному событию, которое может произойти или не произойти.

Аддитивная мера удобна тем, что обеспечивает аддитивность сложения и пропорциональность количества информации глубине числа l.

I = h^l -> I = l*log(h)

h = 2 -> I’ = l*log2 = l.

I = l бит.

I’=log2(n) – Клод Шеннон, все состояния равновероятны.

Форма входа
Поиск
Друзья сайта
Статистика
Copyright Bulatow Albert © 2024
Сделать бесплатный сайт с uCoz