Геометрическая мера – определяет
потенциальное количество информации в заданном комплексе.
Информационный
элемент
– неделимая часть или квант информации в дискретных моделях, в реальных
комплексах, а также элементы алфавита и числовых систем.
Информационная
емкость
– вычисляется как сумма по всем измерениям. Выражается числом, которое
показывает, какое количество информации содержится в полном массиве информации.
Комбинаторная мера выражается в
количестве элементов, в количественных связях между ними, комбинациями из них.
К комбинаторной мере
прибегают тогда, когда требуется оценить возможность передачи информации
различными способами.
Комбинаторика – одна из форм
кодирования информации.
Количество
информации, которое измеряется с помощью комбинаторной меры, вычисляется
количеством различных комбинаций.
Комбинирование
возможно только при наличии нескольких элементов и переменной связи, а также
множества разнообразных позиций.
Элементы
неодинаковые – отличаются друг от друга любым признаком.
Одинаковые элементы
могут стать неодинаковыми, если учесть их позицию или местоположение.
Комбинации –
сочетания, размещения, перестановки с повторениями и без.
В комбинаторной мере
возможное кол-во информации совпадает с числом возможных соединений,
следовательно, определение кол-ва информации в К,М заключается не в простом
подсчете квантов, а в определеннии кол-ва взаимных или действительно
осуществимых комбинаций, т.е. в оценке структурно разнообразного
информационного комплекса. В этом случае кол-во информации, по сравнению с
геометрической многократно увеличывается.
Для аддитивной
меры Хартли имеет важность длина и глубина числа. Глубина числа
определяется количеством элементов или знаков, которое содержится в исходном
алфавите. Соответствует основанию СС.
Q=h^l, h – глубина, l – длина числа.
Q’=log(h^l)=l*log(h) – 1928 год.
Мера Хартли,
выраженная в битах, соответствует элементарному событию, которое может
произойти или не произойти.
Аддитивная мера
удобна тем, что обеспечивает аддитивность сложения и пропорциональность
количества информации глубине числа l.
I = h^l -> I = l*log(h)
h = 2 -> I’ = l*log2 = l.
I = l бит.
I’=log2(n) – Клод Шеннон, все состояния равновероятны.